¿Cómo mejorará Siri con iOS 27? La llegada de iOS 27 apunta a ser uno de los mayores puntos de inflexión en la historia del asistente de Apple. Siri pasará de ser un simple sistema de comandos de voz a un chatbot de inteligencia artificial mucho más conversacional, con funciones avanzadas heredadas de modelos generativos como Gemini y respaldadas por la estrategia Apple Intelligence. No hablamos de un pequeño retoque visual, sino de un cambio profundo en cómo nos relacionamos con el iPhone, el iPad y el Mac.
Durante años hemos tenido la sensación de que Siri se había quedado estancada. Mientras ChatGPT, Gemini o incluso otros asistentes avanzaban a toda velocidad, el asistente de Apple seguía limitado, con respuestas pobres y poca memoria de contexto. Con iOS 26.4 y, sobre todo, con iOS 27, Apple quiere darle la vuelta a esta situación: nueva interfaz tipo chat, mayor comprensión del lenguaje natural, integración total en el sistema y un motor de IA apoyado en la tecnología de Google. Ahora sí, Siri aspira a jugar en la misma liga que los grandes chatbots del mercado.
Del viejo asistente a un chatbot de IA: el gran giro de Siri
La transformación que Apple prepara para Siri con iOS 27 va mucho más allá de un cambio estético puntual. La clásica animación circular o la onda de colores en la parte inferior de la pantalla dejarán paso a una experiencia más parecida a una app de chat, en la que la conversación se mantiene, el contexto importa y las respuestas se encadenan de forma natural.
Según filtraciones procedentes de Bloomberg y otros medios especializados, Apple abandonará la interfaz tradicional de tarjetas flotantes para apostar por un modelo de chatbot similar al que ya encontramos en servicios como ChatGPT, Gemini, Grok o Perplexity. La compañía es consciente de que la presentación actual de Siri transmite la sensación de un asistente anticuado, incapaz de competir frente a las nuevas interfaces conversacionales.
Apple llevaba años afinando pequeños detalles de Siri -algún ajuste de voz, funciones puntuales, algo más de integración con apps-, pero sin atreverse a tocar la base del producto. El auge de la inteligencia artificial generativa ha obligado a replantearlo todo, y iOS 27 será la versión en la que Apple asuma que el modelo clásico de asistente se ha quedado definitivamente obsoleto.

Apple Intelligence, Gemini y el proyecto «Campos»: qué hay detrás del nuevo Siri
La historia reciente de Siri no se entiende sin Apple Intelligence en tu iPhone. Apple anunció con gran expectación su propia plataforma de IA, pero en la práctica se ha encontrado con límites técnicos y retrasos. Mientras tanto, competidores como OpenAI y Google han afinado modelos generativos muy maduros, lo que ha empujado a Apple a buscar alianzas externas.
Aquí entra en juego el acuerdo plurianual con Google. La compañía de Cupertino usará la familia de modelos Gemini y la nube de Google como base para el nuevo chatbot de Siri, adaptándolos a su ecosistema y a sus exigencias de privacidad. En lugar de reinventar la rueda desde cero, Apple aprovechará la potencia y escalabilidad de Gemini para cimentar la próxima generación de su asistente.
Internamente, este nuevo Siri se desarrolla bajo el nombre en clave «Campos». No será una app aparte ni un experimento aislado: sustituirá por completo a la versión actual de Siri y se integrará de forma profunda en iOS 27, iPadOS 27 y macOS 27. La base tecnológica combinará modelos propios de Apple con la infraestructura y los modelos fundacionales de Google.
Esto no significa que Apple renuncie a su identidad. La obsesión de la compañía por la privacidad seguirá marcando la forma en la que se entrenan y ejecutan estos modelos, combinando procesamiento local en los chips de la serie M y A más recientes con tareas en la nube de manera controlada. Buena parte del trabajo de ingeniería se está centrando precisamente en adaptar Gemini al ecosistema de Apple sin traicionar sus principios de seguridad y protección de datos.
El movimiento, además, tiene una clara lectura estratégica. Apple se convierte en la primera gran empresa en integrar la tecnología de Gemini en un producto de consumo masivo, y lo hace justo cuando la carrera por la IA conversacional se ha convertido en el gran campo de batalla de la industria tecnológica.
Fechas clave: de iOS 18 a iOS 27, el largo camino hasta la nueva Siri
Para entender cómo hemos llegado hasta el Siri chatbot de iOS 27, conviene repasar la hoja de ruta reciente. Apple ha ido desplegando funciones de Apple Intelligence y mejoras de Siri en varias fases, con cambios repartidos en distintas versiones de iOS:
- iOS 18.1 (octubre 2024): debutó una interfaz de Siri renovada y la capacidad de recordar contexto en una conversación, aunque solo en inglés de Estados Unidos.
- iOS 18.2 (diciembre 2024): esa experiencia se expandió a más países angloparlantes y se añadió integración inicial con ChatGPT.
- iOS 18.4 (abril 2025): Apple Intelligence llegó al español y otros idiomas, pero sin la versión profunda de la nueva Siri.
- iOS 26.4 (marzo 2026, según filtraciones): actualización puente con la «Siri profunda», mucho más integrada en el sistema y capaz de entender lo que ocurre en pantalla y en las apps.
- iOS 27 (finales de 2026): lanzamiento del chatbot completo protagonizado por Siri, construido sobre Gemini y con interfaz conversacional.
La WWDC de 2026 será el escenario elegido para desvelar todos los detalles de iOS 27 y el nuevo asistente. Apple aprovechará la conferencia de desarrolladores para explicar la arquitectura de su IA, los límites de privacidad y las herramientas para apps de terceros. El despliegue al público está previsto para septiembre, acompañando a la nueva generación de iPhone y alineado con iPadOS 27 y macOS 27.
En paralelo, Apple seguirá manteniendo y puliendo la versión actual de Siri en dispositivos no compatibles con Apple Intelligence. Esto creará una convivencia curiosa: algunos usuarios disfrutarán del chatbot avanzado, mientras otros seguirán con un Siri clásico más limitado, simplemente porque su hardware no alcanza los requisitos mínimos.

Dispositivos compatibles: qué iPhone, iPad y Mac tendrán el nuevo Siri
La nueva Siri no será para todo el mundo. Apple ha fijado unos requisitos de hardware bastante estrictos, centrados en dispositivos con chips suficientemente potentes para ejecutar modelos de IA de forma local y conectarse a la nube cuando haga falta.
En el caso del iPhone, solo los modelos más recientes con iOS 26 o superior podrán acceder a la experiencia completa del nuevo asistente. Entre ellos se incluyen las gamas Pro y las nuevas generaciones:
- iPhone 15 Pro
- iPhone 15 Pro Max
- iPhone 16 y 16 Plus
- iPhone 16 Pro y 16 Pro Max
- iPhone 16e
- iPhone 17
- iPhone Air
- iPhone 17 Pro
- iPhone 17 Pro Max
En el ecosistema iPad, la compatibilidad pasa por disponer de iPadOS 26 o una versión posterior y de un chip relativamente moderno capaz de mover Apple Intelligence con soltura:
- iPad mini (7ª generación, 2024)
- iPad Air con chip M1, M2 o M3
- iPad Pro con chip M1, M2, M4 o M5
En los Mac la línea es aún más clara. Los modelos con procesador Intel se quedan fuera de las nuevas funciones de Siri, mientras que los equipos con Apple Silicon y macOS 26 o superior sí entran en el juego:
- iMac con M1, M3 o M4
- MacBook Air con M1, M2, M3 o M4
- MacBook Pro con M1, M1 Pro, M1 Max, M2, M2 Pro, M2 Max, M3, M3 Pro, M3 Max, M4, M4 Pro, M4 Max o M5
- Mac mini con M1, M2, M2 Pro, M4 o M4 Pro
- Mac Studio con M1 Max, M1 Ultra, M2 Max, M2 Ultra, M4 Max o M3 Ultra
- Mac Pro con M2 Ultra
Apple también planea llevar esta experiencia al Apple Watch y a futuros dispositivos. Uno de los proyectos más llamativos es un wearable sin pantalla, con formato similar al de un AirTag con IA pero con micrófonos integrados, centrado en la interacción por voz con la nueva Siri y previsto -según filtraciones- para 2027.
Qué cambia con iOS 26.4 y qué cambiará con iOS 27
Las mejoras de Siri llegan en dos grandes oleadas. La primera está ligada a iOS 26.4, que introduce una versión mucho más “lista” del asistente tradicional, mientras que la segunda, ya con iOS 27, da el salto completo al modelo de chatbot.
Con iOS 26.4, la vieja Siri recibe una actualización profunda en tres frentes: memoria de contexto, comprensión del lenguaje natural y conciencia del contenido del dispositivo. El asistente dejará de comportarse como si cada petición fuese independiente y empezará a encadenar órdenes relacionadas.
Ejemplo clásico: pides que apague la luz del salón y a continuación dices «y la de la cocina». Hasta ahora, Siri se perdía con esa segunda orden, pero la nueva versión entenderá la relación entre ambas y actuará en consecuencia. Lo mismo ocurrirá con conversaciones más largas, en las que puedas hacer referencia a «eso que me has dicho antes» sin tener que repetirlo todo.
Además, Siri empezará a prestar atención -de forma privada- a lo que ocurre en tu dispositivo. Leerá el contenido de la pantalla, tendrá en cuenta los mensajes recibidos y enviados, los correos electrónicos, las notificaciones y otros elementos, sin que tú tengas que darle todas las pistas cada vez. Eso le permitirá resolver consultas como «¿a qué hora llega mi amigo a comer el sábado?» basándose en un email o mensaje que te envió y que tú ya ni recuerdas.
Esta misma lógica se trasladará a la app Fotos, la búsqueda de documentos y otras áreas. Podrás pedirle cosas del estilo “enséñame las fotos en las que salgo con una chaqueta roja en Nueva York” o que encuentre archivos específicos en la app Archivos y correos concretos con adjuntos sin tener que recordar títulos exactos.
Con iOS 27, este conjunto de capacidades se envuelve en una capa totalmente nueva: Siri se convertirá en un chatbot conversacional con historial de chats, interfaz mixta de voz y texto y un motor de IA respaldado por Gemini. Podrá generar resúmenes extensos, redactar correos y documentos, ayudar con código, proponer ideas creativas o analizar archivos complejos, además de seguir encargándose de los típicos recordatorios, alarmas y domótica.

Interfaz tipo chat, conciencia de pantalla y uso en todo el sistema
Uno de los puntos más llamativos de la nueva etapa será la interfaz. La idea es que Siri deje de aparecer como una capa efímera para convertirse en un espacio de conversación estable, muy parecido a un hilo de chat. Podrás desplazarte hacia arriba para revisar mensajes anteriores, recuperar respuestas antiguas o continuar conversaciones anteriores allí donde las dejaste.
Esta nueva vista de chat convivirá con la activación clásica. Seguirás pudiendo llamar a Siri con la palabra de activación o manteniendo pulsado el botón lateral del iPhone, pero una vez iniciada la interacción, el flujo se desarrollará como una conversación en la que se mezclan voz y texto de forma natural.
La gran baza diferencial de Apple estará en la integración con el dispositivo. El nuevo Siri tendrá lo que la compañía denomina “conciencia de pantalla”: sabrá qué apps tienes abiertas, qué documento estás leyendo, qué foto estás editando o qué mensaje estás viendo, y podrá ofrecer ayuda en función de ese contexto inmediato.
Eso se traducirá en tareas como pedirle que resuma un documento que tienes delante, que genere una respuesta adecuada a un correo que estás leyendo, que modifique un texto en pantalla o que te guíe paso a paso en una app profesional como Xcode, donde podría actuar como asistente de programación.
Además, Apple prevé abrir parte de estas capacidades a terceros mediante una API. Los desarrolladores podrán integrar el chatbot de Siri en sus aplicaciones, de modo que el asistente entienda acciones específicas dentro de cada app y pueda ejecutar tareas complejas que vayan mucho más allá de «abrir X aplicación» o «mandar un mensaje».
ChatGPT, Gemini y el papel de los modelos externos
La relación del nuevo Siri con otros modelos de IA será un tanto híbrida. Por defecto, Apple Intelligence utilizará modelos propios combinados con la tecnología de Gemini para dar respuesta a la mayoría de las consultas. Sin embargo, Apple mantendrá una integración directa con ChatGPT para determinadas peticiones.
Cuando el sistema detecte que Siri no es capaz de resolver algo con sus propios modelos, ofrecerá la opción de recurrir a ChatGPT, informando siempre al usuario de que está pasando a un servicio externo con las condiciones de OpenAI. En ese caso se usará el modelo GPT-4o, con las mismas limitaciones de uso que en la web o en la app oficial.
Una vez se supere el número de solicitudes permitidas a GPT-4o, el sistema pasará temporalmente a GPT-3.5 y restablecerá el acceso al modelo avanzado tras 24 horas. Es, básicamente, una integración cómoda para el usuario, pero no una versión “ilimitada” ni diferente al servicio estándar de OpenAI.
Esta integración con ChatGPT comenzó ya en iOS 18.2, inicialmente solo en inglés. La compatibilidad en español y otros idiomas se ha ido desplegando junto al resto de funciones de Apple Intelligence, de forma escalonada, para ir ajustando tanto la experiencia de uso como las garantías de privacidad.
Por otro lado, la alianza con Google para el uso de Gemini se ha convertido en un pilar clave. Apple ha tenido que recurrir a esta colaboración tras encontrar problemas de rendimiento y escalabilidad en sus propios prototipos de asistentes generativos, y busca así garantizar que el nuevo Siri esté a la altura desde el primer día.
Privacidad, fiabilidad y dudas abiertas sobre la memoria de Siri
Un asistente más conversacional, con más contexto y más capacidad de análisis, también plantea preguntas delicadas. Apple lleva años vendiendo la privacidad como uno de sus principales diferenciales, y ahora tiene que demostrar que puede mantener ese compromiso al tiempo que adopta un modelo de chatbot avanzado.
Buena parte del procesamiento se realizará en local, aprovechando los chips M y A más recientes, pero ciertas tareas complejas seguirán delegándose en la nube, ya sea en infraestructuras propias de Apple o en los servidores de Google para Gemini. La compañía deberá explicar bien qué datos salen del dispositivo, cómo se anonimizan y durante cuánto tiempo se conservan.
Otro debate interno importante se centra en la memoria de conversación. Mientras que competidores como ChatGPT usan el historial para personalizar respuestas, Apple se plantea limitar esta memoria para reducir el riesgo de abusos o filtraciones de información sensible.
Es probable que veamos opciones de configuración que permitan decidir hasta qué punto Siri puede recordar interacciones pasadas, si queremos que olvide ciertas conversaciones o si preferimos que no mantenga ningún historial a largo plazo. Ahí estará una de las líneas rojas que marcarán la diferencia entre Apple y otros actores del sector.
Por último, queda la cuestión de la fiabilidad. Si el nuevo Siri sigue fallando en tareas básicas o ofreciendo respuestas inconsistentes, de poco servirá el nuevo envoltorio visual. Apple es consciente de que la percepción del usuario se juega en el día a día, en si el asistente acierta cuando se le pide algo sencillo y si evita al máximo las “alucinaciones” típicas de algunos modelos generativos.
Cómo se usará, cuánto costará y qué podemos esperar del futuro
En cuanto al uso, Apple no quiere complicarle la vida a nadie. La activación de Siri seguirá funcionando como hasta ahora: con el comando de voz «Siri» o con la pulsación prolongada del botón lateral en el iPhone (o el equivalente en iPad y Mac). Lo que cambiará será lo que aparece en pantalla y cómo sigue la conversación después.
En principio, no será necesario activar nada especial para usar la nueva versión del asistente, más allá de asegurarse de tener Apple Intelligence y Siri habilitados en Ajustes > Apple Intelligence y Siri. Algunas funciones seguirán en fase beta y podrían requerir sumarse a una lista de espera, como ya ha ocurrido con otras herramientas de IA de Apple.
Respecto al precio, la primera fase de la nueva Siri será un servicio incluido en el sistema. No habrá que pagar una suscripción específica para disfrutar del asistente renovado, del mismo modo que hasta ahora el uso de Siri era gratuito dentro de iOS, iPadOS y macOS.
Otra cosa es lo que ocurra con el chatbot más avanzado a medio plazo. Algunas filtraciones apuntan a que Apple no descarta ofrecer ciertas funciones premium bajo suscripción, especialmente si implican un uso intensivo de recursos en la nube o modelos externos como Gemini o ChatGPT. De momento, son conjeturas, y habrá que esperar a los anuncios oficiales para salir de dudas.
Mirando un poco más adelante, la estrategia de Apple parece clara: Siri dejará de ser un simple “botón de voz” para convertirse en el núcleo de la experiencia de IA en todos los dispositivos de la marca, desde el iPhone hasta posibles nuevos wearables centrados en la interacción hablada.
Con todo este panorama, iOS 27 se perfila como el momento en que Siri dé por fin el salto que llevaba años reclamándose. La combinación de una interfaz de chatbot, una integración profunda en el sistema, el apoyo de Gemini y el refuerzo de Apple Intelligence puede convertirla en una herramienta realmente útil en el día a día, siempre que la compañía afine bien la privacidad, la estabilidad y la calidad de las respuestas. Si lo consigue, la etiqueta de asistente desfasado podría por fin quedar atrás para dar paso a un Siri a la altura de lo que se espera de Apple en plena era de la inteligencia artificial conversacional.