Ta en närmare titt på hur Apple använder välbekanta gester för nya interaktioner med Vision Pro

Apple lägger grunden för att användarna ska känna sig bekväma med Vision Pro.

Apple har tänkt mycket på hur användare kommer att interagera med Vision Pro. Traditionella ingångar från ett tangentbord, styrplatta, kontroller och röst är alla alternativ, men Apple vill verkligen dess användare att använda sina ögon och händer med sin kommande enhet, vilket skapar en mer personlig och uppkopplad erfarenhet. Naturligtvis finns det många obesvarade frågor just nu, och det har också funnits många människor som hört av sig tankar om enheten. Så det är alltid intressant att få synpunkter från någon som har investerat hårt i utrymmet, som Andrew Hart, som är grundaren av Hyper, ett företag som skapar AR-upplevelser inomhus för detaljhandeln.

Källa: Apple

Hart delade sina åsikter om Vision Pro i en serie tweets lyfter fram bra punkter som finns i utvecklarsessionen och hur användare kommer att interagera med innehåll när de använder Vision Pro. Apple skapar nya former av interaktion för sin unika produkt, men det betyder inte att de behöver avvika från handlingar som vi har vant oss vid varje dag genom att använda datorer och smartphones. För att skapa en känsla av förtrogenhet med sin Vision Pro använder Apple dessa gester så att användarna kan fokusera mer på upplevelsen och mindre på interaktionsmetoden. Genom att använda välbekanta gester, som tryck och nyp för att zooma, kan Apple minska inlärningskurvan för den nya upplevelsen. Men det som verkligen gör att det här fungerar så bra är att upplevelsen är så inspelad att interaktioner och handlingar känns sömlösa.

I utvecklarsessionen visar ett exempel hur en användare kan zooma in i en bild helt enkelt genom att titta på ett område och sedan nypa in med en handgest. Interaktionen är naturlig om du någonsin har använt en smartphone; bäst av allt, det drar dig inte ur upplevelsen. Apple lyfter också fram hur viktigt det är för utvecklare att hålla saker i mitten av ramen för att minska belastningen på ögon och nacke. Men det visar också hur föremål i kringutrustningen kan användas med åtgärder som kan flytta skrivverktyget från ett område till ett annat snabbt med bara ett enkelt tryck från användaren, ungefär som hur det skulle fungera på en PC eller smartphone.

Men från vad vi har sett och hört från dem som har upplevt det, har Apple fått saker helt rätt, och denna interaktionsmetod liknar ingenting vi någonsin sett förut. Vår egen Ben Sin var med på WWDC och fick praktisk tid med Vision Pro, och han delade med sig av sina tankar och diskuterade hur lätt det var att navigera i användargränssnittet med sina ögon och händer. Kanske är en av de viktiga skillnaderna med Vision Pro jämfört med andra produkter som kom innan det dessa typer av interaktioner kändes sömlösa, vilket gav användarna bekanta verktyg men med nya sätt att interagera med innehåll.

Apple är medvetet om att alla interaktioner med händerna kommer att orsaka trötthet och rekommenderar att man minimerar detta när det är möjligt. Men det kommer att finnas ett behov av dessa typer ibland för att skapa en bättre upplevelse. Även om dessa typer av gester är viktiga, har Apple också inbyggda tillgänglighetskontroller som gör att användarna kan välja åtgärden med ögonen om det behövs. En av de största varningarna med Apples Vision Pro är kanske att den inte kan ge någon typ av taktil feedback eftersom den inte använder fysiska kontroller. Nu är det här en stor sak för när vi normalt interagerar med saker i den verkliga världen, ser vi det inte bara, utan vi får också känna det också.

Detta är förmodligen ett av de svåra hindren när man bygger objekt i ett digitalt utrymme, och Apple diskuterar att övervinna detta problem genom att kompensera med andra typer av sensorisk information. Ett bra exempel på detta är tangentbordet i visionOS, där Apple höjer tangenterna från basen av det digitala tangentbordet för att skapa en känsla av djup. Apple använder sig också av belysning, där tangenterna blir framhävda när ett finger svävar över dem. Ljuset blir starkare när ett finger närmar sig och blir svagare när man flyttar bort. När en användare interagerar och trycker på en knapp, finns det en visuell indikation på att knappen trycks ned, och den åtföljs också av ett ljud, som registreras som en bekräftelse på tryckningen.

För det mesta är detta bara en liten del av vad man kan förvänta sig när Apple äntligen lanserar sitt nya headset. Företaget har lyft fram hårdvaran, mjukvaran och verktygen som finns tillgängliga. Härifrån blir det upp till utvecklarna att skapa intressanta appar att locka in folk. Detta är en extremt nischad produkt som kostar mycket pengar. Även om ingen förväntar sig att detta ska bli en succé över en natt, har många andra företag försökt introducera liknande produkter och har ännu inte riktigt fått draghjälp. Kommer Apple att vara först med att ändra denna produktkategori och göra den populär, som det har gjort tidigare med många andra produkter? Bara tiden kommer att utvisa, men om allt detta låter intressant rekommenderar jag att du kollar in utvecklarsession för att få alla detaljer om hur Apple kommer att använda gester.