Lo que durante mucho tiempo sonaba casi a ciencia ficción tecnológica está ya encaminado: Apple y Google han sellado una alianza para que los modelos Gemini impulsen la próxima gran evolución de Siri. El asistente de voz de la compañía de Cupertino dará un salto importante hacia el terreno de los chatbots avanzados, apoyándose en la infraestructura de inteligencia artificial de Google Assistant.
Este movimiento, que afectará a cientos de millones de dispositivos en todo el mundo, llega tras varios tropiezos de Apple con su estrategia propia de IA. El acuerdo reconfigura la relación entre ambas compañías y plantea un nuevo escenario de cooperación entre rivales en plena carrera por liderar la inteligencia artificial, con efectos directos para usuarios de iPhone, iPad y Mac en España y Europa.
Una alianza estratégica: Gemini como motor del nuevo Siri
Apple y Google han anunciado una colaboración multianual por la que la próxima generación de modelos de Apple se apoyará en la familia Gemini y la nube de Google para alimentar a Siri y a parte de Apple Intelligence. No se trata de una integración puntual, sino de un acuerdo de fondo que sitúa a Gemini como base tecnológica de muchas de las funciones de IA que llegarán a los sistemas operativos de Apple.
Según ambas compañías, los nuevos modelos de la «Foundation» de Apple se construirán sobre Gemini y sobre la infraestructura de centros de datos de Google, incluidos servidores con unidades de procesamiento Tensor. Esto permitirá a Apple manejar el enorme volumen de consultas de un asistente conversacional moderno, algo para lo que, a día de hoy, su propia infraestructura sería insuficiente.
Para Google, el beneficio es claro: Gemini se convierte en el cerebro de uno de los asistentes virtuales más conocidos del mundo, ampliando su alcance a la extensa base de usuarios de Apple. Para Apple, la colaboración le permite salir del atasco en el que se encontraba su proyecto de IA, ganar tiempo y llegar a la próxima gran ola de asistentes inteligentes con un producto competitivo.
Esta fórmula de cooperación entre competidores encaja en el concepto de «coopetencia» que en los últimos años se ha extendido en el sector tecnológico: empresas que siguen enfrentadas en varios frentes, pero que colaboran en áreas clave para no quedarse atrás frente a nuevos actores o startups muy agresivas en inteligencia artificial.
Por qué Apple recurre a Gemini para relanzar Siri
El giro de Apple hacia Google llega después de una etapa complicada. La compañía llevaba años trabajando en Apple Intelligence y en una renovación profunda de Siri, pero la ejecución no ha seguido el ritmo del mercado. El despliegue de estas funciones junto al iPhone 16 fue más discreto de lo previsto: retrasos, capacidades limitadas y una sensación generalizada de que el asistente seguía muy por detrás de ChatGPT, Gemini o Claude.
Las expectativas no cumplidas provocaron reorganizaciones internas y presión de accionistas y usuarios, que veían cómo otras plataformas avanzaban a gran velocidad en asistentes conversacionales y herramientas generativas. Apple llegó a explorar acuerdos con compañías como OpenAI, pero finalmente se inclinó por Google, en gran parte por la madurez técnica y la escalabilidad del ecosistema Gemini.
Mientras tanto, la conversación mediática y del sector ha girado por completo hacia la IA generativa. Aunque Apple sigue dominando en ventas de móviles de gama alta en Europa y otros mercados, la percepción de liderazgo tecnológico se estaba desplazando hacia empresas que demostraban avances concretos en inteligencia artificial. En ese contexto, la alianza con Google es una manera pragmática de recuperar terreno de forma rápida.
La decisión también deja entrever las dificultades de Apple para desarrollar modelos de lenguaje de gran tamaño competitivos por sí sola. El reto no es solo técnico, sino también de infraestructura: entrenar y servir modelos comparables a los de Gemini o ChatGPT implica inversiones multimillonarias en centros de datos y hardware especializado.
Calendario de cambios: de la Siri con LLM al chatbot completo
El plan de Apple contempla una transformación gradual de Siri a lo largo de los próximos dos años de ciclo de software. La primera gran parada será iOS 26.4, donde llegará una versión renovada del asistente basada en modelos de lenguaje (LLM) con más contexto y respuestas más naturales, pero aún sin convertirse en un chatbot completo.
En esa fase inicial, Siri ganará capacidad para mantener conversaciones más continuas, ofrecer contestaciones mejor estructuradas y personalizar más sus respuestas, pero seguirá limitada en comparación con lo que ofrecen los chatbots más avanzados. Apple necesitó rediseñar la arquitectura interna del asistente para que pudiera ejecutar LLM, lo que explica en parte los retrasos.
El salto grande llegará con iOS 27, iPadOS 27 y macOS 27, previstos para presentarse en la Conferencia Mundial de Desarrolladores (WWDC) y lanzarse en otoño si no hay más contratiempos. En ese momento, Siri pasará a funcionar como un chatbot de inteligencia artificial de nueva generación, al que internamente Apple se ha referido con nombres en clave como «SiriBot» o «Campos».
La idea de Apple es que este nuevo Siri se convierta en la función estrella de la próxima oleada de sistemas operativos. Si el desarrollo no llega a tiempo o la compañía teme repetir errores pasados, no se descarta que Apple opte por retrasar la presentación de las capacidades más ambiciosas, sobre todo tras la experiencia con iOS 18 y el estreno irregular de Apple Intelligence que dejó claro que Siri aún no estaba lista.
Cómo será el nuevo chatbot Siri alimentado por Gemini
La versión de Siri que se apoyará en Gemini aspira a situarse al nivel de chatbots como ChatGPT, Gemini o Claude en cuanto a conversación natural y resolución de tareas. No se tratará de una simple mejora incremental del asistente actual, sino de un replanteamiento profundo de su papel en el ecosistema de Apple.
Entre las funciones que se esperan, el nuevo Siri podrá buscar información en Internet, resumirla y presentarla de forma clara, generar contenido (texto, borradores de correos, guiones, ideas), crear imágenes y analizar documentos o archivos cargados por el usuario. Además, tendrá capacidad para trabajar con datos personales del dispositivo para completar tareas más complejas.
El asistente también será capaz de entender mejor el contexto del usuario, tanto a partir de su historial de interacciones como de lo que aparece en la pantalla en cada momento. Por ejemplo, podrá analizar ventanas abiertas, correos o fotos que estemos viendo para sugerir acciones o ejecutar comandos sin que el usuario tenga que explicar cada paso.
A diferencia de los chatbots que funcionan como apps independientes, Apple planea que Siri siga integrado a nivel del sistema, como hasta ahora, pero con una nueva capa conversacional mucho más potente. Esto abrirá la puerta a interacciones de voz y texto más naturales, sin necesidad de cambiar constantemente entre aplicaciones.
Aunque todavía no hay imágenes definitivas, se da por hecho que la interfaz de Siri será rediseñada para adaptarse a estas funciones más avanzadas. Apple ha experimentado incluso con un aspecto animado inspirado en el logotipo del Finder de macOS, especialmente pensando en futuros dispositivos de sobremesa y accesorios centrados en IA. La evolución del Siri Remote es otro indicio de los cambios en la interacción.
Integración profunda en iOS, iPadOS y macOS
Una de las claves del proyecto es la profunda integración de Siri en todo el ecosistema de Apple. A diferencia de ChatGPT o Gemini en móvil, que normalmente se usan en aplicaciones concretas, el asistente de Apple seguirá disponible desde cualquier rincón del sistema operativo.
Según las filtraciones, Siri no se limitará a responder preguntas aisladas, sino que podrá encadenar varias acciones dentro y entre apps. Podrá mover archivos de una aplicación a otra, editar fotos y enviarlas, preparar un correo a partir de un documento que estemos leyendo o combinar información del calendario, mensajes y mapas para organizar un plan y compartirlo con nuestros contactos.
Las aplicaciones propias de Apple —como Fotos, Mail, Mensajes, Apple TV, Música o Xcode— recibirán funciones específicas basadas en el nuevo asistente. Será posible pedirle que busque una fotografía concreta describiendo su contenido, que la recorte y ajuste colores antes de mandarla o que nos sugiera series y películas en función de nuestras preferencias y del historial de visionado.
En el caso de los desarrolladores, Apple quiere que Siri se convierta en una herramienta de apoyo dentro de Xcode, ayudando a escribir código, revisar fragmentos o explicar errores, una línea en la que competidores como GitHub Copilot o la propia Gemini ya se han posicionado.
Todo ello estará disponible tanto en España como en el resto de Europa, aunque la distribución exacta de idiomas y funciones podría ser escalonada. Tradicionalmente, algunas características de Siri llegan primero en inglés y se van extendiendo después, pero la presión competitiva podría acelerar la adaptación al castellano y a otras lenguas europeas.
Contexto personal, pantalla y memoria: hasta dónde llegará Siri
Una de las grandes apuestas de Apple para este nuevo Siri es el llamado «contexto personal». El asistente será capaz de rastrear y comprender información dispersa entre correos electrónicos, mensajes, archivos, notas y fotos, para responder a peticiones del tipo: «enséñame los documentos que me mandó Marta la semana pasada» o «encuentra el correo donde mi jefe habló de la reunión en Barcelona».
Además, Siri integrará lo que Apple denomina «conciencia en pantalla»: podrá ver qué hay en tu iPhone, iPad o Mac en ese momento y actuar en consecuencia. Si tienes en pantalla una dirección que te han enviado por mensaje, bastará con pedirle que la añada a un contacto; si estás viendo una foto, podrás indicarle que la compartas con un grupo concreto.
En paralelo, el asistente tendrá una memoria más rica de las interacciones, al estilo de lo que ya hacen ChatGPT o Gemini, aunque con matices importantes por el foco de Apple en la privacidad. La compañía está valorando cuidadosamente cuánta información conservar de forma persistente, y durante cuánto tiempo, para evitar acumular un historial excesivo sobre cada usuario.
Esta memoria conversacional limitada permitirá que Siri recuerde detalles relevantes para mejorar la experiencia —por ejemplo, preferencias habituales o tareas en curso—, pero sin construir un perfil exhaustivo en la nube sobre la vida del usuario. Es aquí donde Apple quiere diferenciarse de otros servicios, consciente de la sensibilidad que genera el uso de datos personales en Europa, tanto a nivel de usuarios como de reguladores.
En cualquier caso, la empresa mantiene la marca: a pesar de todos estos cambios, el nombre «Siri» se conservará. Más que un asistente nuevo con otra etiqueta, Apple pretende que los usuarios perciban a Siri como una versión mucho más lista y útil de lo que han conocido hasta ahora.
Privacidad, servidores y el papel de la nube de Google
Uno de los asuntos más delicados de esta alianza es cómo se gestionan los datos y la privacidad. Apple ha insistido en que las funciones de IA seguirán respetando su enfoque tradicional de protección de datos, apoyándose en su plataforma Private Cloud Compute para procesar gran parte de la información en centros de datos diseñados con ese objetivo.
Sin embargo, al menos en la fase inicial, parte de la potencia de cálculo necesaria para el chatbot Siri se apoyará en servidores de Google, con chips especializados Tensor para manejar las consultas más pesadas. Esto se debe a que Apple todavía no cuenta con la infraestructura propia suficiente para dar servicio en tiempo real a miles de millones de peticiones diarias desde todos sus dispositivos.
Ambas empresas aseguran que el diseño de la solución estará orientado a minimizar la exposición de datos sensibles y a cumplir con las normativas de privacidad de regiones como la Unión Europea. Aun así, la idea de que una función central de los productos de Apple dependa de la nube de Google no deja de levantar interrogantes entre analistas y usuarios más preocupados por el control de su información.
Apple también se reserva la posibilidad de cambiar más adelante el modelo de IA subyacente. La alianza con Google no es una cesión definitiva, sino una especie de puente: cuando los modelos internos de Apple alcancen un nivel suficiente, la compañía podrá ir reduciendo su dependencia de Gemini y trasladar más capacidades a soluciones propias o, en mercados específicos, a socios locales.
Un ejemplo de esto último es China, donde la normativa limita el uso de servicios de inteligencia artificial extranjeros. En ese país, Apple se vería obligada a asociarse con proveedores locales para ofrecer funciones similares a las que se apoyan en Gemini en Europa o Estados Unidos.
Costes, modelo de negocio y comparación con la competencia
Otro punto clave es el coste. Mantener un chatbot de IA de este calibre no es barato: entrenar y servir modelos avanzados implica miles de millones en infraestructura y energía. Apple ya paga a Google cantidades muy elevadas por otras integraciones, como el motor de búsqueda por defecto en Safari, y ahora añade el acceso a modelos de Gemini a la lista de gastos.
Por ahora, no está claro si Apple trasladará parte de estos costes al usuario final. La compañía podría optar por un enfoque similar al de Google con Gemini: ofrecer un nivel básico gratuito integrado en el sistema y reservar funciones más potentes para una suscripción de pago, posiblemente ligada a algún plan tipo Apple One o a una nueva categoría de servicios de IA.
En el ecosistema Android, Google ya permite usar una versión gratuita de Gemini integrada en algunos Pixel y otros teléfonos, mientras que ofrece Gemini Advanced mediante una cuota mensual con capacidades mejoradas de razonamiento, análisis de documentos más largos y ayudas avanzadas para programadores.
Si Apple quiere competir de tú a tú en Europa con estas ofertas, tendrá que encontrar un equilibrio entre ofrecer suficientes funciones sin coste adicional para no frustrar a los usuarios y, al mismo tiempo, construir un modelo de negocio sostenible para una infraestructura tan cara.
En cualquier caso, el movimiento de Apple refleja que ya no es viable ignorar la ola de chatbots conversacionales. La empresa había intentado durante un tiempo diferenciarse con pequeñas dosis de IA dispersas por todo el sistema, pero el éxito de herramientas como ChatGPT o Gemini ha demostrado que los usuarios esperan un «cerebro» unificado con el que hablar de forma natural para casi cualquier tarea.
El acuerdo entre Apple y Google para que Gemini impulse el futuro de Siri marca un antes y un después en la forma en que usamos nuestros dispositivos. En los próximos años, los usuarios de iPhone, iPad y Mac en España y en el resto de Europa verán cómo el asistente pasa de ser una herramienta limitada a un compañero conversacional mucho más capaz, con todas las ventajas y las dudas que conlleva confiar en una inteligencia artificial tan profundamente integrada en el día a día digital.
