Jakiś czas temu Google przejął firmę Quest Visual, która opracowała technologię umożliwiającą każdemu urządzeniu z aparatem tłumaczenie tekstu w czasie rzeczywistym. Apple nie ma obecnie ani nie zamierza wypuszczać niczego podobnego, ale jeśli zrobi to, co najnowsze pozwolenie, technologia starej aplikacji Word Lens wyda nam się śmieszna. I to jest to, że w przyszłości iPhone będzie mógł odczytywać pliki język migowy.
Pod tytułem «Trójwymiarowe śledzenie dłoni za pomocą sekwencji głębokości", ostatni pozwolenie znany z Cupertino opisuje system, w którym urządzenie byłoby zdolne zlokalizuj i śledź położenie rąk przez trójwymiarową przestrzeń w czasie rzeczywistym, podobnie jak śledzenie twarzy za pomocą aplikacji Photo Booth, dostępnej dla systemów OS X i iOS.
Jedną z wielu możliwości, jakie dałaby nam technologia opisana w patencie, byłaby umiejętność czytania języka migowego, co pozwoliłoby nam zrozumieć, co mówi osoba głuchoniema, o ile Apple włączy do aplikacji słownik i nasz rozmówca zna język.
Z drugiej strony pozwoliłoby nam to również sterować interfejsem urządzenia iOS, Mac, Apple TV (jeśli mają aparat) lub Apple Watch z gestami i bez konieczności dotykania ekranu. Przypomina mi to trochę aplikację Flutter, która pozwoliła nam przyspieszyć, spowolnić, zwiększyć lub zmniejszyć głośność iTunes i innych aplikacji za pomocą gestów, chociaż w tamtym czasie aplikacja (obecnie należąca do Google) była bardzo zmarnowana.
Jak zawsze mówimy, że firma coś opatentowała, nie oznacza, że zobaczymy to na jednym z jej urządzeń w przyszłości, ale jeśli weźmiemy pod uwagę, że Apple planuje wejść na rynek rzeczywistości wirtualnej (VR) i Augmented Reality (AR), nie powinniśmy być zaskoczeni, jeśli jedno z jego przyszłych urządzeń pomoże nam komunikować się z osobami mającymi problemy z głosem. Tylko czas ma wszystkie odpowiedzi.
Język czy język ???? Ay ay….
Cześć Pepe. W tym przypadku są synonimami. Hiszpański Legua, język francuski ...
Pozdrowienia.