For en tid siden kjøpte Google selskapet Quest Visual, som utviklet en teknologi som gjør at alle enheter med kamera kan oversette tekst i sanntid. Apple har eller har ikke tenkt å lansere noe lignende, men hvis det utfører det siste lisens, vil teknologien til den gamle Word Lens-applikasjonen virke latterlig for oss. Og det er at i fremtiden kan iPhone være i stand til å lese tegnspråk.
Under tittelen «Tredimensjonal håndsporing ved hjelp av dybdesekvenser", den siste lisens som er kjent fra de fra Cupertino, beskriver et system der en enhet vil være i stand til finn og følg hendene gjennom tredimensjonalt rom i sanntid, i likhet med ansiktssporing ved hjelp av Photo Booth-appen, tilgjengelig for OS X og iOS.
En av de mange mulighetene som teknologien beskrevet i patentet vil tilby oss, er muligheten til å lese tegnspråk, som gjør det mulig for oss å forstå hva en døv-stum person sier, så lenge Apple inkluderte ordboken i applikasjonen og samtalepartneren vår kan språket.
På den annen side vil det også tillate oss kontrollere grensesnittet til en enhet iOS, en Mac, en Apple TV (hvis de inkluderer et kamera) eller en Apple Watch med bevegelser og uten å måtte berøre skjermen. Dette minner meg litt om Flutter-applikasjonen som tillot oss å øke hastigheten, redusere, øke eller senke volumet på iTunes og andre applikasjoner med bevegelser, selv om applikasjonen (nå eid av Google) var veldig bortkastet.
Som vi alltid sier, at et selskap har patentert noe, betyr ikke at vi vil se det på en av enhetene deres i fremtiden, men hvis vi tar i betraktning at Apple planlegger å gå inn på Virtual Reality (VR) -markedet og Augmented Reality (AR), bør vi ikke bli overrasket om en av dens fremtidige enheter hjelper oss å kommunisere med mennesker med stemmeproblemer. Bare tiden har alle svarene.
Språk eller språk ???? ay ay….
Hei Pepe. I dette tilfellet er de synonyme. Spansk Legua, fransk språk ...
En hilsen.