Apple lægger grunden til at sikre, at brugerne vil føle sig godt tilpas med Vision Pro.
Apple har tænkt meget over, hvordan brugerne vil interagere med Vision Pro. Traditionelle input fra et tastatur, pegefelt, controller og stemme er alle muligheder, men Apple vil virkelig gerne sine brugere til at bruge deres øjne og hænder med sin kommende enhed, hvilket skaber en mere personlig og forbundet erfaring. Selvfølgelig er der mange ubesvarede spørgsmål på dette tidspunkt, og der har også været masser af folk, der har kimet ind med deres tanker om enheden. Så det er altid interessant at få et synspunkt fra en person, der er stærkt investeret i rummet, som Andrew Hart, der er grundlæggeren af Hyper, et firma, der skaber indendørs AR-oplevelser til detailhandlen.
Kilde: Apple
Hart delte sine synspunkter om Vision Pro i en række tweets fremhæve gode punkter om fundet i udviklersessionen, og hvordan brugere vil interagere med indhold, når de bruger Vision Pro. Apple er ved at skabe nye former for interaktion for sit unikke produkt, men det betyder ikke, at det behøver at afvige fra handlinger, vi har vænnet os til hver dag ved at bruge pc'er og smartphones. For at skabe en følelse af fortrolighed med sin Vision Pro, udnytter Apple disse bevægelser, så brugerne kan fokusere mere på oplevelsen og mindre på interaktionsmetoden. Ved at bruge velkendte bevægelser, såsom tryk og knib for at zoome, er Apple i stand til at reducere indlæringskurven for den nye oplevelse. Men det, der virkelig får dette til at fungere så godt, er, at oplevelsen er så optaget, at interaktioner og handlinger føles problemfrie.
I udviklersessionen viser et eksempel, hvordan en bruger kan zoome ind på et billede ved blot at se på et område og derefter knibe ind med en håndbevægelse. Interaktionen er naturlig, hvis du nogensinde har brugt en smartphone; bedst af alt, det trækker dig ikke ud af oplevelsen. Apple fremhæver også, hvor vigtigt det er for udviklere at holde tingene i midten af rammen for at reducere belastningen af øjne og nakke. Men det viser også, hvordan elementer i det perifere udstyr kan bruges med handlinger, der kan flytte skriveværktøjet fra et område til et andet hurtigt med blot et enkelt tryk fra brugeren, ligesom hvordan det ville fungere på en pc eller smartphone.
Men ud fra hvad vi har set og hørt fra dem, der har oplevet det, har Apple fået tingene helt rigtigt, og denne interaktionsmetode ligner intet, vi nogensinde har set før. Vores egen Ben Sin var til stede ved WWDC og fik praktisk tid med Vision Pro, og han delte sine tanker og diskuterede, hvor nemt det var at navigere i brugergrænsefladen med sine øjne og hænder. Måske er en af de vigtige forskelle med Vision Pro sammenlignet med andre produkter, der kom før den disse typer af interaktioner føltes sømløse og gav brugerne velkendte værktøjer, men med nye måder at interagere med indhold.
Apple er klar over, at enhver interaktion med hænderne vil forårsage træthed og anbefaler at minimere dette, når det er muligt. Men der vil nogle gange være behov for disse typer for at skabe en bedre oplevelse. Selvom disse typer bevægelser er vigtige, har Apple også indbygget tilgængelighedskontroller, der giver brugerne mulighed for at vælge handlingen med deres øjne, hvis det er nødvendigt. Måske er en af de største forbehold med Apples Vision Pro, at den ikke kan give nogen form for taktil feedback, da den ikke bruger fysiske controllere. Det er en stor sag, for når vi normalt interagerer med ting i den virkelige verden, ser vi det ikke kun, men vi kommer også til at mærke det.
Dette er sandsynligvis en af de svære forhindringer, når man bygger objekter i et digitalt rum, og Apple diskuterer at overvinde dette problem ved at kompensere ved hjælp af andre typer sanseinformation. Et godt eksempel på dette er tastaturet i visionOS, hvor Apple hæver tasterne fra bunden af det digitale tastatur for at skabe en følelse af dybde. Apple gør også brug af belysning, hvor tasterne bliver fremhævet, når en finger svæver over dem. Lyset bliver stærkere, når en finger nærmer sig og bliver svagere, når du bevæger dig væk. Når en bruger interagerer og trykker på en tast, er der en visuel indikation af, at tasten bliver trykket, og den er også ledsaget af en lyd, der registreres som bekræftelse af trykket.
For det meste er dette kun en lille del af, hvad man kan forvente, når Apple endelig lancerer sit nye headset. Virksomheden har fremhævet den tilgængelige hardware, software og værktøjer. Herfra bliver det op til udviklerne at skabe interessante apps at lokke folk ind. Dette er et ekstremt nicheprodukt, der koster mange penge. Selvom ingen forventer, at dette bliver en succes fra den ene dag til den anden, har mange andre virksomheder forsøgt at introducere lignende produkter og har endnu ikke for alvor vundet indpas. Vil Apple være den første til at ændre denne produktkategori og gøre den populær, som den tidligere har gjort med mange andre produkter? Kun tiden vil vise, men hvis det hele lyder interessant, anbefaler jeg at tjekke ud udvikler session for at få de fulde detaljer om, hvordan Apple vil bruge bevægelser.