El HomePod ya ha aterrizado en varios países. Aunque no ha habido mucha información al respecto, se sabe que en el primer trimestre se vendieron 600.000 unidades. Al parecer este número es ligeramente más bajo del que Apple se esperaba. Sin embargo, la gran obra de ingeniería en la que se han invertido grandes cantidades de dinero, es una obra de arte.
Una obra de arte no sólo en su exterior. También lo es toda la mecánica que lleva en su interior: desde el chip A8 que gobierna toda la estructura hasta los diferentes tipos de altavoces de gran calidad pasando por la inteligencia artificial empleada. Hoy, los ingenieros de Apple han resuelto una incógnita: cómo Siri te escucha aunque haya ruido de fondo.
Siri, HomePod e inteligencia artificial: un trío perfecto
El chip A8 diseñado por Apple es el cerebro que orquesta las grandes innovaciones del HomePod. Como el procesamiento de señales avanzado para que Siri te oiga aunque suene la música. O el procesamiento en tiempo real con calidad de estudio, que potencia los graves y reduce la distorsión. Además, el almacenamiento en búfer es aún más rápido que en tiempo real. Y la combinación de audio en directo y ambiental te ofrece un sonido irrepetible, una y otra vez.
En la presentación del HomePod hace ya más de un año, nos aseguraron que Siri respondería a nuestras cuestiones incluso con ruido de fondo. Desde su comercialización, decenas de miles de personas han podido comprobarlo de forma satisfactoria. No importa si la música está a tope o si hay una conversación en la sala, en el momento en el que dices «Oye Siri», el HomePod se silencia y te ofrece la información que estás buscando.
Los ingenieros que forman parte del equipo de Ingeniería de audio y el equpio de Siri han explicado en un artículo cómo es el funcionamiento de forma específica por el que Siri puede oirnos aunque haya ruido de fondo. Tal y como explican, el HomePod puede oirte en tres situaciones: cuando hay música, cuando le estás hablando desde un lugar lejano o cuando está interfiriendo otro sonid como la televisión. La clave de todo está en un sistema de procesamiento multicanal basado en dos premisas:
- Máscara de eliminación de eco y ruido de fondo usando inteligencia artificial
- Determinación de qué fragmentos de audio tenemos que quitar de cuáles mantener
El altavoz emplean seis micrófonos y funcionan al mismo tiempo de forma continúa para ofrecer información al sistema multicanal. Esto es importante ya que una tarea de estas características consumiría mucha energía. Sin embargo, este proceso únicamente ocupa algo más del 10% de la capacidad del chip A8. Si queréis conocer algunos ejemplos de cómo mejora el sistema multicanal podéis acceder al blog del equipo de ingeniería donde hay varios ejemplos que lo demuestran.
Sé el primero en comentar