Konceptualna rewolucja, która implikuje nowy produkt jabłkowy, Apple Vision Pro, jest wyjątkowo duży. Firma wprowadziła tzw obliczenia przestrzenne. Użytkownicy będą mogli wchodzić w interakcje z urządzeniem w immersyjnej rzeczywistości za pomocą ruchów gałek ocznych i gestów dłoni. Resztę zapewnia sprzęt i oprogramowanie Apple. Przez cały ten tydzień na WWDC inżynierowie pokazali sześć głównych gestów, za pomocą których steruje się interfejsem Apple Vision Pro oraz ewolucję gestów w kierunku bardziej złożonych ruchów dostępnych również w okularach.
Sześć gestów sterujących Apple Vision Pro
Apple Vision Pro wprowadza ponad 5000 patentów na swoje działanie, rewolucję technologiczną, która pozwala ustanowić precedens w obliczeniach przestrzennych w rzeczywistości mieszanej. Dzięki dziesięciu czujnikom, kamerom i ekranom użytkownik będzie mógł pracować, bawić się i wykonywać wiele innych czynności z tego samego miejsca w okularach.
Na WWDC23 został zaoferowany jedna sesja o nazwie „Projekt do wprowadzenia przestrzennego” prowadzony przez Israela Pastranę i Eugene'a Krivoruchko, w którym zajęli się znaczenie oczu i dłoni dla działania Apple Vision Pro.
Jak widać, działaniem systemu visionOS zarządza sześć głównych gestów:
- Bawić się: Dotknij kciuka palcem wskazującym, aby dotknąć wirtualnego elementu na ekranie, na którym jesteś. To jak dotknięcie lub dotknięcie gdzieś na ekranie urządzenia takiego jak iPhone lub iPad.
- Kliknij dwukrotnie
- Nacisnij i przytrzymaj: ten gest może być ukierunkowany na zaznaczenie tekstu.
- Kliknij i przeciągnij: Można go używać do przewijania strony internetowej lub poruszania się w poziomie lub w pionie po oglądanej treści. Szybkość i siła, z jaką ciągnęliśmy, przekładała się na większą lub mniejszą prędkość.
- Powiększenie: pierwszy z gestów do wykonania dwiema rękami. Odbywa się to tak, jakbyś ścisnął ekran lub obraz i przesunął go w celu zwiększenia rozmiaru lub powiększenia.
- Obracać się: chwytanie zawartości i obracanie jej wokół niewidocznej osi powoduje obrót zawartości.
Adresowane były również złożone gesty zorientowane w kontekście, jak te, które widać na obrazku, który znajduje się kilka linii powyżej. W takim przypadku programiści mieliby nieograniczone możliwości, rozumiejąc Apple Vision Pro jako przedłużenie rzeczywistości. Innymi słowy, gesty będą zależeć od aplikacji lub scenariusza, w którym się znajdujemy, a interakcje będą generowane przez programistów. Na przykład włóż płytę winylową jak w przykładzie lub kliknij, aby obrócić obiekt wokół siebie.