Apple kładzie podwaliny, aby użytkownicy czuli się komfortowo z Vision Pro.
Apple szczegółowo zastanowiło się nad tym, w jaki sposób użytkownicy będą wchodzić w interakcję Wizja Pro. Tradycyjne dane wejściowe z klawiatury, gładzika, kontrolera i głosu to opcje, ale Apple naprawdę tego chce użytkownikom korzystanie z oczu i rąk z nadchodzącym urządzeniem, tworząc bardziej osobiste i połączone doświadczenie. Oczywiście w tym momencie pozostaje wiele pytań bez odpowiedzi, a także mnóstwo osób wtrącających się ze swoimi przemyślenia na temat urządzenia. Dlatego zawsze ciekawie jest poznać punkt widzenia kogoś, kto mocno inwestuje w tę przestrzeń, na przykład Andrew Harta, założyciela Hyper – firmy tworzącej rozwiązania AR w pomieszczeniach zamkniętych dla handlu detalicznego.
Źródło: Apple
Hart podzielił się swoimi poglądami na temat Vision Pro w serii tweetów podkreślając najważniejsze punkty sesji programisty oraz interakcję użytkowników z treścią podczas korzystania z Vision Pro. Apple tworzy nowe formy interakcji dla swojego unikalnego produktu, ale to nie znaczy, że musi odejść od czynności, do których przyzwyczailiśmy się na co dzień, korzystając z komputerów stacjonarnych i smartfonów. Aby stworzyć wrażenie zaznajomienia się ze swoim Vision Pro, Apple wykorzystuje te gesty, dzięki czemu użytkownicy mogą bardziej skupić się na doświadczeniu, a mniej na sposobie interakcji. Używając znanych gestów, takich jak dotknięcie i uszczypnięcie, aby powiększyć, Apple może skrócić czas nauki nowego doświadczenia. Ale to, co naprawdę sprawia, że to działa tak dobrze, to fakt, że doświadczenie jest tak dopracowane, że interakcje i działania wydają się płynne.
W sesji programisty przykład pokazuje, jak użytkownik może powiększyć obraz, po prostu patrząc na obszar, a następnie ściskając go gestem ręki. Interakcja jest naturalna, jeśli kiedykolwiek korzystałeś ze smartfona; co najlepsze, nie wyrywa cię to z doświadczenia. Apple podkreśla również, jak ważne dla programistów jest trzymanie obiektów na środku kadru, aby zmniejszyć zmęczenie oczu i szyi. Ale pokazuje także, jak elementy na urządzeniu peryferyjnym mogą być używane z działaniami, które mogą przenosić narzędzie do pisania z jednego obszaru na inny, jednym kliknięciem przez użytkownika, podobnie jak na komputerze PC lub smartfon.
Jednak z tego, co widzieliśmy i słyszeliśmy od tych, którzy tego doświadczyli, wynika, że Apple spisał się znakomicie, a ta metoda interakcji nie przypomina niczego, co kiedykolwiek wcześniej widzieliśmy. Nasz własny Ben Sin był obecny na WWDC i dostał praktyczny czas z Vision Proi podzielił się swoimi przemyśleniami, omawiając, jak łatwo jest poruszać się po interfejsie użytkownika za pomocą oczu i rąk. Być może jedną z najważniejszych różnic między Vision Pro w porównaniu z innymi produktami, które pojawiły się wcześniej, jest to tego typu interakcje przebiegały płynnie, zapewniając użytkownikom znane narzędzia, ale z nowymi sposobami interakcji treść.
Firma Apple zdaje sobie sprawę, że jakakolwiek interakcja z rękami powoduje zmęczenie, dlatego zaleca minimalizowanie tego zjawiska, jeśli to możliwe. Ale czasami tego typu osoby będą potrzebne, aby zapewnić lepsze wrażenia. Chociaż tego typu gesty są ważne, Apple ma również wbudowaną kontrolę dostępności, która w razie potrzeby pozwoli użytkownikom wybierać akcję oczami. Być może jednym z największych zastrzeżeń Apple Vision Pro jest to, że nie zapewnia on żadnego rodzaju informacji dotykowych, ponieważ nie korzysta z fizycznych kontrolerów. To wielka sprawa, ponieważ kiedy zwykle wchodzimy w interakcję z rzeczami w prawdziwym świecie, nie tylko to widzimy, ale także możemy to poczuć.
Jest to prawdopodobnie jedna z trudnych przeszkód podczas budowania obiektów w przestrzeni cyfrowej i Apple rozważa przezwyciężenie tego problemu poprzez kompensację za pomocą innych rodzajów informacji sensorycznych. Świetnym tego przykładem jest klawiatura w systemie VisionOS, w której Apple podnosi klawisze z podstawy klawiatury cyfrowej, aby stworzyć wrażenie głębi. Apple korzysta również z oświetlenia, w którym klawisze stają się podświetlone, gdy najedzie się na nie palcem. Światło staje się jaśniejsze w miarę zbliżania się palca i słabnie w miarę oddalania się. Gdy użytkownik wchodzi w interakcję i naciska klawisz, pojawia się wizualna sygnalizacja naciśnięcia klawisza, czemu towarzyszy również sygnał dźwiękowy, który jest rejestrowany jako potwierdzenie naciśnięcia.
W większości jest to tylko niewielka część tego, czego można się spodziewać, gdy Apple w końcu wypuści na rynek swój nowy zestaw słuchawkowy. Firma przedstawiła dostępny sprzęt, oprogramowanie i narzędzia. Od tego momentu zadaniem programistów będzie tworzenie ciekawych aplikacji, które będą przyciągać ludzi. To niezwykle niszowy produkt, który kosztuje mnóstwo pieniędzy. Chociaż nikt nie spodziewa się, że odniesie to sukces z dnia na dzień, wiele innych firm próbowało wprowadzić podobne produkty, ale jeszcze nie zyskało na popularności. Czy Apple jako pierwszy zmieni tę kategorię produktów i spopularyzuje ją, tak jak to miało miejsce w przeszłości w przypadku wielu innych produktów? Czas pokaże, ale jeśli to wszystko brzmi interesująco, polecam sprawdzić sesja deweloperska aby uzyskać szczegółowe informacje na temat sposobu, w jaki Apple będzie wykorzystywać gesty.