Nos llegan noticias en relación a Apple Music. Y es es que el servicio de música en streaming de Apple entró en esas pequeñas novedades que nos trajo iOS 13: un cambio de diseño y unas letras de canciones sincronizadas con las mismas para que las podamos leer mientras escuchamos música. Lo más curioso es el cómo transcriben esas canciones, y es que Apple habría contratado un equipo de empleados para esta labor. Tras el salto os damos más detalles acerca de este curioso equipo…
Sí, suena «analógico» pero Apple podría estar confiando en el ser humano para mejorar las nuevas letras de Apple Music con iOS 13. Una labor que se puede hacer de forma automática debido a la tecnología existente pero que obviamente no es tan fiable como lo que puede aportar una persona con sus oídos. Para ello, habrían contratado a un equipo de personas para escuchar canciones y transcribir en tiempo real las letras de las mismas. Esto es lo que comentó Oliver Schusser (responsable de Apple Music) al equipo de WIRED en una entrevista:
Contamos con un equipo de personas dedicadas a escuchar música y a transcribir las canciones. Esta es la mejor forma de conseguir una buena sincronización de las canciones y sus letras, no utilizamos las letras de los sitios habituales, todo lo creamos nosotros.
Y es que sí, si estáis usando iOS 13 y la nueva función de letras de Apple Music habréis podido comprobar como cada verso aparece en el preciso momento en el que la música suena, todo para que la interacción sea perfecta y no tengamos una mala experiencia con una mala sincronía de la letra. Obviamente estas letras no están diponibles para todas las canciones pero seguro que no tardan en llegar a cada vez más temas. Pequeñas mejoras que sin duda aportan, todo para conseguir robar más usuarios a Spotify, veremos que es lo siguiente…