Nézze meg közelebbről, hogyan használja ki az Apple az ismert gesztusokat a Vision Pro-val való új interakciókhoz

Az Apple lefekteti az alapot annak biztosítására, hogy a felhasználók jól érezzék magukat a Vision Pro használatával.

Az Apple sokat gondolkodott azon, hogy a felhasználók hogyan kommunikáljanak egymással Vision Pro. Hagyományos bemenetek a billentyűzetről, a trackpadről, a vezérlőről és a hangról is rendelkezésre állnak, de az Apple nagyon szeretné a felhasználók szemüket és kezüket használhatják a közelgő készülékkel, ezáltal személyesebb és összekapcsoltabb tapasztalat. Természetesen ezen a ponton sok megválaszolatlan kérdés van, és rengeteg ember üzent gondolatok a készülékről. Ezért mindig érdekes olyan szemszögből megismerni valakit, aki sokat fektetett be a térbe, mint például Andrew Hart, aki a Hyper alapítója, egy olyan cég, amely beltéri AR-élményeket hoz létre a kiskereskedelem számára.

Forrás: Apple

Hart megosztotta nézeteit a Vision Pro-val kapcsolatban tweetek sorozatában kiemeli a fejlesztői munkamenetben fellelhető nagyszerű pontokat, és azt, hogy a felhasználók hogyan lépnek kapcsolatba a tartalommal a Vision Pro használata során. Az Apple új interakciós formákat hoz létre egyedi terméke számára, de ez nem jelenti azt, hogy el kell távolodnia azoktól a tevékenységektől, amelyeket a PC-k és okostelefonok használatával mindennap megszoktunk. A Vision Pro megismerésének érzetének megteremtése érdekében az Apple kihasználja ezeket a gesztusokat, hogy a felhasználók jobban összpontosíthassanak az élményre, és kevésbé az interakció módszerére. Az ismerős gesztusok használatával, például a nagyításhoz koppintással és csípéssel, az Apple csökkenteni tudja az új élmény tanulási görbéjét. De ami igazán jól működik, az az, hogy az élmény annyira tárcsázott, hogy az interakciók és a cselekvések zökkenőmentesnek tűnnek.

A fejlesztői munkamenetben egy példa bemutatja, hogy a felhasználó hogyan nagyíthat rá egy képre egyszerűen úgy, hogy megnéz egy területet, majd egy kézmozdulattal megcsíp. Az interakció természetes, ha valaha is használt okostelefont; a legjobb az egészben, hogy nem húz ki az élményből. Az Apple azt is kiemeli, mennyire fontos a fejlesztőknek, hogy a keret közepén tartsák a dolgokat, hogy csökkentsék a szem és a nyak megerőltetését. De azt is bemutatja, hogy a periféria elemei hogyan használhatók olyan műveletekkel, amelyek áthelyezhetik az íróeszközt az egyikből területről gyorsan a másikra, mindössze egy egyszerű érintéssel a felhasználótól, hasonlóan ahhoz, hogyan működne PC-n vagy okostelefon.

De abból, amit láttunk és hallottunk azoktól, akik tapasztalták, az Apple mindent jól csinált, és ez az interakciós módszer semmihez sem hasonlítható. A mi Ben Sinünk részt vett a WWDC-n, és megkapta gyakorlati idő a Vision Pro segítségével, és megosztotta gondolatait, megvitatva, milyen könnyű volt navigálni a felhasználói felületen a szeme és a keze segítségével. Talán az egyik fontos különbség a Vision Pro-val szemben az előtte megjelent többi termékhez képest, hogy ez az ilyen típusú interakciók zökkenőmentesnek tűntek, így a felhasználók ismerős eszközöket, de új interakciós módokat kaptak tartalom.

Az Apple tisztában van azzal, hogy a kezekkel való bármilyen interakció fáradtságot okoz, és javasolja ennek minimalizálását, ha lehetséges. De néha szükség lesz ezekre a típusokra a jobb élmény megteremtéséhez. Bár az ilyen típusú gesztusok fontosak, az Apple beépített akadálymentesítési vezérlőkkel is rendelkezik, amelyek lehetővé teszik a felhasználók számára, hogy szükség esetén a szemükkel válasszák ki a műveletet. Talán az egyik legnagyobb figyelmeztetés az Apple Vision Pro-val kapcsolatban, hogy nem tud semmilyen tapintható visszajelzést adni, mivel nem használ fizikai vezérlőket. Nos, ez nagy dolog, mert amikor normálisan interakcióba lépünk a való világ dolgaival, nem csak látjuk, hanem érezzük is.

Valószínűleg ez az egyik nehéz akadály, amikor objektumokat építenek a digitális térben, és az Apple megvitatja ennek a problémának a leküzdését más típusú szenzoros információk felhasználásával. Jó példa erre a visionOS billentyűzete, ahol az Apple felemeli a billentyűket a digitális billentyűzet aljáról, hogy mélységérzetet keltsen. Az Apple a világítást is használja, ahol a billentyűk kiemelésre kerülnek, ha egy ujj rájuk kerül. A fény világosabbá válik, amikor az ujj közeledik, és halványodik távolodva. Amikor a felhasználó interakcióba lép és megnyom egy billentyűt, vizuálisan jelzi, hogy a billentyűt lenyomják, és egy hang is kíséri, amely a megnyomás megerősítéseként jelentkezik.

A legtöbb esetben ez csak egy kis része annak, hogy mire számíthatunk, amikor az Apple végre bemutatja új fejhallgatóját. A vállalat kiemelte a rendelkezésre álló hardvert, szoftvert és eszközöket. Innentől kezdve a fejlesztők feladata lesz, hogy érdekes alkalmazásokat hozzanak létre, amelyek becsábítják az embereket. Ez egy rendkívül niche termék, amely sok pénzbe kerül. Noha senki sem várja el, hogy ez egyik napról a másikra sikerrel járjon, sok más cég megpróbált hasonló termékeket bevezetni, és még nem sikerült igazán elterjednie. Vajon az Apple lesz az első, aki megváltoztatja ezt a termékkategóriát, és népszerűvé teszi, ahogyan azt korábban sok más termék esetében tette? Csak az idő fogja eldönteni, de ha ez mind érdekesnek tűnik, ajánlom, hogy nézze meg a fejlesztői munkamenet hogy megtudja, hogyan használja az Apple a gesztusokat.