Nyheter kommer til oss i forhold til Apple Music. Og det er at Apples streaming-musikktjeneste kom inn i de små nyhetene som det brakte oss iOS 13: en designendring og noe sangtekster synkronisert med dem slik at vi kan lese dem mens vi hører på musikk. Det mest nysgjerrige er hvordan de transkriberer disse sangene, og det er det Apple ville ha ansatt et team av ansatte for dette arbeidet. Etter hoppet gir vi deg flere detaljer om dette nysgjerrige teamet ...
Ja, det høres ut «analogisk»Men Apple kan stole på mennesker for å forbedre de nye tekstene til Apple Music med iOS 13. En oppgave som kan gjøres automatisk på grunn av eksisterende teknologi, men åpenbart ikke så pålitelig som hva en person kan bidra med ørene. For å gjøre dette ville de ha ansatt en eteam av mennesker for å lytte til sanger og transkribere tekstene sine i sanntid. Her er hva Oliver Schusser (leder for Apple Music) fortalte WIRED-teamet i et intervju:
Vi har et team av mennesker dedikert til å lytte til musikk og transkribere sanger. Dette er den beste måten å få god timing av sangene og tekstene deres, bruker vi ikke tekstene til de vanlige nettstedene, vi lager alt.
Og ja, hvis du bruker iOS 13 og den nye Apple Music-tekstfunksjonen, vil du ha kunnet se hvordan hvert vers vises i det nøyaktige øyeblikket musikken spiller, alt slik at samspillet er perfekt og la oss ikke ha en dårlig opplevelse med dårlig lyrisk timing. Disse tekstene er åpenbart ikke tilgjengelige for alle sanger, men det tar sikkert ikke lang tid å nå flere og flere temaer. Små forbedringer som utvilsomt bidrar, alt for å stjele flere brukere fra Spotify, vi vil se hva som er følgende ...