La mayor actualización de Siri en años podría llegar en marzo

  • Apple prepara un nuevo Siri basado en modelos de lenguaje avanzados integrado en iOS 26.4.
  • La ventana más probable de lanzamiento se sitúa a finales de marzo, también para España y resto de Europa.
  • El asistente ganará integración profunda con apps, contexto personal y conciencia de pantalla.
  • Parte del procesamiento se hará en el dispositivo y parte en la nube, con especial atención a la privacidad en la UE.

Actualización de Siri

Después de años de quejas por peticiones mal entendidas y respuestas poco útiles, todo indica que Apple está a punto de estrenar la mayor actualización de Siri en mucho tiempo. No se trataría de un simple lavado de cara, sino de un cambio profundo en la tecnología que hay detrás del asistente, acercándolo a los chatbots de inteligencia artificial que ya se han popularizado en los últimos años.

Nueva Siri: un asistente basado en IA de nueva generación

Las informaciones procedentes de medios especializados como Bloomberg, ZDNET o 9to5Mac coinciden en que Apple está reconstruyendo Siri sobre una arquitectura de modelos de lenguaje de gran tamaño (LLM), similares a los que emplean ChatGPT o Google Gemini. Este cambio de base permitiría mantener conversaciones más naturales, con menos sensación de estar hablando con una máquina encorsetada.

Según estas fuentes, el nuevo Siri se está probando internamente desde hace meses en iPhone, iPad y Mac, inicialmente como aplicación independiente y posteriormente integrado en las versiones de prueba del sistema. El objetivo es sustituir progresivamente la infraestructura antigua por este nuevo motor de IA, capaz de entender mejor el lenguaje natural y manejar peticiones más complejas.

La idea es que el asistente deje atrás situaciones tan habituales como órdenes de voz mal interpretadas o respuestas absurdas, que incluso han sido objeto de bromas en series de televisión. Apple quiere que Siri se acerque más al comportamiento de los chatbots modernos: diálogos continuos, capacidad para recordar el contexto reciente y menos errores de comprensión.

En este nuevo esquema, Siri no solo contestaría preguntas, sino que actuaría como un verdadero orquestador de acciones dentro del sistema y las aplicaciones, algo que hasta ahora ha estado muy limitado o ha funcionado de forma inconsistente.

Siri en iPhone

Posible fecha de lanzamiento: todas las miradas puestas en marzo

La gran pregunta para muchos usuarios es cuándo podrán probar este nuevo Siri. Todo apunta a que la actualización llegará con iOS 26.4 y sus equivalentes en iPadOS y macOS, en una ventana que encaja con la trayectoria de Apple en años anteriores.

En ciclos pasados, las versiones .4 del sistema han tendido a publicarse en marzo, especialmente en su tramo final. El propio historial reciente de lanzamientos ilustra bien este patrón:

  • iOS 18.4: se lanzó un lunes 31 de marzo.
  • iOS 17.4: llegó el martes 5 de marzo, adelantándose algo al rango habitual.
  • iOS 16.4: se publicó el lunes 27 de marzo.

Con este contexto, las filtraciones internas señalan que iOS 26.4 se situaría nuevamente en la franja de finales de marzo. iOS 26.3 ya se encuentra en pruebas beta, con un lanzamiento previsto para finales de enero, lo que dejaría margen para que la primera beta de iOS 26.4 aparezca a finales de enero o durante febrero.

Si esa beta se publicara pronto, no sería descabellado un despliegue algo más temprano en marzo. Sin embargo, los informes subrayan que el comportamiento real del nuevo Siri en las pruebas será clave: si se detectan problemas de precisión, estabilidad o incompatibilidades con apps, Apple podría tomarse algunas semanas adicionales para pulir la experiencia antes de activarla para el gran público.

En Europa hay un factor añadido: el cumplimiento de la regulación digital y de protección de datos. En el pasado, la compañía ya modificó el calendario de ciertas versiones, como iOS 17.4, para adaptarse a plazos marcados por la Ley de Mercados Digitales. No se descarta, por tanto, que la ventana de lanzamiento en la UE venga condicionada por requisitos normativos específicos.

Qué cambios prácticos notarán los usuarios

Más allá de la fecha, lo relevante para los usuarios españoles y europeos es qué podrá hacer el nuevo Siri que no hace ahora. Aquí entran en juego varias funciones que Apple presentó originalmente como parte de su apuesta de IA y que acabaron retrasándose.

La primera gran novedad es una integración mucho más profunda con las aplicaciones a través de las llamadas App Intents. Esta tecnología permitirá que el asistente ejecute acciones muy concretas dentro de las apps, sin que el usuario tenga que navegar por menús o tocar la pantalla.

También se espera una mejora significativa en la comprensión del contexto personal. Siri tendría un acceso más estructurado a datos como correos, mensajes, calendario o notas —siempre bajo las políticas de privacidad de Apple— para entender mejor peticiones que hasta ahora resultaban confusas, como buscar un mensaje concreto o localizar un dato importante dentro de la información del dispositivo. Parte de esta mejora pasaría por integrar mejor sistemas como Apple Intelligence con el asistente.

Otro pilar clave será la conciencia de pantalla. El asistente podrá tener en cuenta lo que hay visible en ese momento para actuar directamente sobre ese contenido: añadir una dirección que aparece en un correo, guardar un teléfono, resumir un artículo que se está leyendo en el navegador o realizar acciones relacionadas con una app que el usuario tiene abierta.

Por último, se reforzará la capacidad de Siri para responder preguntas de conocimiento general de forma directa, actuando más como un buscador conversacional que como un mero intermediario que muestra enlaces. La idea es que sea capaz de dar explicaciones claras y concretas sobre temas de actualidad, historia, deportes o cultura, sin obligar a abrir una página web en cada consulta.

Una arquitectura LLM para reducir errores y malentendidos

Buena parte de la frustración histórica con Siri tiene que ver con malentendidos recurrentes, órdenes que se repiten sin éxito y respuestas disparatadas. Apple pretende atacar este problema de raíz con el uso de modelos de lenguaje de gran tamaño, la misma familia de tecnologías que está detrás de los principales chatbots de la actualidad.

Estos modelos se entrenan con grandes volúmenes de datos para aprender a interpretar el lenguaje humano con más matices, entender referencias, ironías ligeras o peticiones encadenadas. En lugar de apoyarse en comandos muy rígidos, el asistente podrá gestionar instrucciones formuladas de manera más natural, parecida a cómo se habla en una conversación cotidiana.

Las filtraciones señalan que el nuevo Siri será capaz de mantener mejor el hilo de lo que se ha dicho antes, lo que debería reducir los típicos “no te he entendido” cuando la persona se refiere a algo mencionado en una frase anterior o a un elemento que está en pantalla.

Además, se espera que desaparezcan muchas de las situaciones en las que el asistente se rinde con facilidad o ofrece una respuesta equivocada sin reconocer sus propias limitaciones. El objetivo es un Siri menos propenso a confundir nombres, lugares o instrucciones de navegación, y con mayor capacidad para indicar cuándo necesita reformular la petición.

Con todo, los observadores recuerdan que Apple ya ha hecho promesas parecidas en el pasado, por ejemplo con su iniciativa de Apple Intelligence, que no terminó de estar a la altura de las expectativas frente a competidores como ChatGPT o Gemini. La compañía se juega ahora buena parte de su credibilidad en IA con este relanzamiento del asistente.

Dónde se procesará la información: dispositivo, nube y privacidad

Otra de las claves de esta actualización tiene que ver con dónde se realizan los cálculos que dan vida al nuevo Siri. La compañía apostaría por un modelo híbrido en el que parte de las peticiones se resuelven en el propio dispositivo y otras se derivan a servidores en la nube.

El procesamiento local —directamente en el iPhone, iPad o Mac— tiene la ventaja de ser más rápido y discreto. Para tareas relativamente simples o que solo requieran información que ya está en el dispositivo, Siri podría responder sin enviar datos personales fuera, apoyándose en modelos optimizados para ejecutarse en los chips de Apple.

Para solicitudes más complejas, como resúmenes extensos, análisis avanzados o búsquedas de conocimiento general, el sistema recurriría a la computación en la nube. Ahí es donde entran las especulaciones sobre el posible uso de tecnologías de terceros, con Google y OpenAI como principales candidatas para proporcionar parte del motor lingüístico de alto nivel.

De acuerdo con estos informes, Apple se reservaría el control sobre la ejecución final de las acciones y el acceso a los datos del usuario, que recaería en modelos y sistemas propios, incluso si se apoya en un LLM externo para interpretar mejor el lenguaje natural.

Este enfoque es especialmente sensible en Europa, donde el Reglamento General de Protección de Datos y la nueva normativa sobre servicios digitales imponen exigencias fuertes en transparencia, minimización de datos y control por parte del usuario. La compañía tendrá que explicar con claridad qué se procesa en el dispositivo, qué viaja a la nube, durante cuánto tiempo se conserva y con qué garantías.

Siri en dispositivos Apple

Integración con aplicaciones y nuevas formas de uso

Una de las transformaciones más visibles en el día a día llegará con la integración avanzada de Siri en las aplicaciones. Hasta ahora, el asistente ha tenido un papel muy limitado en muchas apps, lo que a menudo obligaba a los usuarios a recurrir al toque y a los menús para tareas que, en teoría, podrían resolverse con la voz.

Con la nueva versión, los desarrolladores podrán utilizar App Intents para definir acciones muy concretas dentro de sus aplicaciones que Siri podrá ejecutar directamente. Eso podría incluir desde editar una fotografía específica en la app de Fotos hasta comprobar el estado de un vuelo en una aplicación de aerolínea o repetir un pedido en una tienda en línea.

Para que todo eso funcione, los creadores de apps deberán adaptar sus aplicaciones a las nuevas APIs del asistente. Es previsible que los grandes servicios —mensajería, compras, banca, movilidad o viajes— se muevan rápido para aprovechar estas capacidades, sobre todo en mercados como el europeo, donde la base de usuarios de iPhone es amplia.

La combinación de App Intents con la conciencia de pantalla promete también usos más naturales. Por ejemplo, si el usuario está viendo una dirección en un correo, podría pedir a Siri que la guarde en contactos; si tiene abierta una página con la información de un pedido, podría solicitar un seguimiento o una devolución sin navegar manualmente por la app.

En paralelo, la mejora del contexto hará posible que el asistente gestione consultas que hasta ahora resultaban poco fiables, como “buscar el mensaje donde me mandaron el número de cuenta” o “dime a qué hora sale el vuelo de mañana a partir del correo de confirmación”, siempre respetando las configuraciones de privacidad y permisos del usuario.

Impacto en otros dispositivos del ecosistema Apple

La nueva Siri no se quedará en el iPhone. La intención de la compañía es que todo su ecosistema se beneficie del salto en inteligencia, especialmente aquellos productos en los que la voz es la forma principal de interacción.

Entre los dispositivos que más podrían notar el cambio se encuentran los altavoces inteligentes y los posibles equipos para el hogar con pantalla integrada. Desde hace tiempo se rumorea un producto que combine elementos de HomePod y iPad, pensado para actuar como centro de control doméstico, pantalla para videollamadas y punto de acceso rápido a información mediante comandos de voz.

Ese tipo de producto habría quedado en pausa en parte porque Siri no estaba preparado para ofrecer una experiencia a la altura. Con un asistente más potente, capaz de entender mejor el contexto familiar, los perfiles de los usuarios y lo que se muestra en pantalla, la idea de un dispositivo de este tipo para el salón o la cocina gana fuerza.

El Apple Watch es otro candidato claro a beneficiarse del cambio. Su formato lo hace ideal para interacciones breves y frecuentes con el asistente: consultar mensajes, gestionar recordatorios, registrar entrenamientos o lanzar automatizaciones complejas sin tocar el iPhone podrían volverse acciones mucho más fluidas si Siri responde mejor.

También los AirPods y otros auriculares de la marca podrían sacar partido a un asistente más fiable para peticiones por voz, desde controles de reproducción hasta instrucciones de navegación, sin necesidad de sacar el teléfono del bolsillo. En todos estos casos, el éxito dependerá de que la nueva arquitectura cumpla lo prometido en términos de precisión y rapidez.

Con todo lo que se ha ido conociendo, la actualización que Apple prepara para marzo con iOS 26.4 marca un punto de inflexión para el futuro de Siri. Si la combinación de modelos de lenguaje avanzados, mayor integración con apps y mejor gestión del contexto funciona como se espera, el asistente podría dejar atrás buena parte de la mala fama acumulada y convertirse en una herramienta realmente útil para millones de usuarios, tanto en España y Europa como en el resto del mundo.

Siri Intelligence Apple
Artículo relacionado:
El nuevo Siri ensaya el control por voz de casi todas las apps

Oye, Siri
Te puede interesar:
Más de 100 preguntas divertidas que le podemos hacer a Siri
Síguenos en Google News