Ta en nærmere titt på hvordan Apple utnytter kjente bevegelser for nye interaksjoner med Vision Pro

Apple legger grunnlaget for å sikre at brukerne vil føle seg komfortable med Vision Pro.

Apple har tenkt mye på hvordan brukere vil samhandle med Vision Pro. Tradisjonelle innganger fra et tastatur, styreflate, kontroller og stemme er alle alternativer, men Apple vil virkelig sine brukere til å bruke øynene og hendene med sin kommende enhet, og skaper en mer personlig og tilkoblet erfaring. Selvfølgelig er det mange ubesvarte spørsmål på dette tidspunktet, og det har også vært mange folk som kimet inn med deres tanker om enheten. Så det er alltid interessant å få et synspunkt fra noen som er tungt investert i plassen, som Andrew Hart, som er grunnleggeren av Hyper, et selskap som skaper innendørs AR-opplevelser for detaljhandel.

Kilde: Apple

Hart delte sine syn på Vision Pro i en serie tweets fremheve gode poeng om funnet i utviklerøkten og hvordan brukere vil samhandle med innhold når de bruker Vision Pro. Apple skaper nye former for interaksjon for sitt unike produkt, men det betyr ikke at det trenger å avvike fra handlinger vi har blitt vant til hver dag ved å bruke PCer og smarttelefoner. For å skape en følelse av fortrolighet med sin Vision Pro, utnytter Apple disse bevegelsene slik at brukerne kan fokusere mer på opplevelsen og mindre på metoden for interaksjon. Ved å bruke kjente bevegelser, som trykk og klyp for å zoome, er Apple i stand til å redusere læringskurven til den nye opplevelsen. Men det som virkelig gjør at dette fungerer så bra, er at opplevelsen er så innordnet at interaksjoner og handlinger føles sømløse.

I utviklerøkten viser et eksempel hvordan en bruker kan zoome inn i et bilde ganske enkelt ved å se på et område, og deretter knipe inn med en håndbevegelse. Samspillet er naturlig hvis du noen gang har brukt en smarttelefon; best av alt, det trekker deg ikke ut av opplevelsen. Apple fremhever også hvor viktig det er for utviklere å holde ting i midten av rammen for å redusere belastningen på øyne og nakke. Men den viser også hvordan gjenstander i periferutstyret kan brukes med handlinger som kan flytte skriveverktøyet fra ett område til et annet raskt med bare et enkelt trykk fra brukeren, omtrent som hvordan det ville fungere på en PC eller smarttelefon.

Men fra det vi har sett og hørt fra de som har opplevd det, har Apple fått ting helt riktig, og denne interaksjonsmetoden ligner ingenting vi noen gang har sett før. Vår egen Ben Sin var til stede på WWDC og fikk praktisk tid med Vision Pro, og han delte tankene sine og diskuterte hvor enkelt det var å navigere i brukergrensesnittet med øynene og hendene. Kanskje en av de viktige forskjellene med Vision Pro sammenlignet med andre produkter som kom før den er det disse typene interaksjoner føltes sømløse, og ga brukerne kjente verktøy, men med nye måter å samhandle med innhold.

Apple er klar over at enhver interaksjon med hendene vil føre til tretthet og anbefaler å minimere dette når det er mulig. Men det vil være behov for disse typene noen ganger for å skape en bedre opplevelse. Selv om denne typen bevegelser er viktige, har Apple også innebygde tilgjengelighetskontroller som lar brukerne velge handlingen med øynene om nødvendig. Kanskje en av de største forbeholdene med Apples Vision Pro er at den ikke kan gi noen form for taktil tilbakemelding siden den ikke bruker fysiske kontrollere. Nå er dette en stor sak, for når vi vanligvis samhandler med ting i den virkelige verden, ser vi det ikke bare, men vi får også føle det.

Dette er sannsynligvis en av de vanskelige hindringene når man bygger objekter i et digitalt rom, og Apple diskuterer å overvinne dette problemet ved å kompensere ved å bruke andre typer sensorisk informasjon. Et godt eksempel på dette er tastaturet i visionOS, med Apple som hever tastene fra bunnen av det digitale tastaturet for å skape en følelse av dybde. Apple benytter seg også av belysning, der tastene blir uthevet når en finger svever over dem. Lyset blir sterkere når en finger nærmer seg og blir svakere når du beveger deg bort. Når en bruker interagerer og trykker på en tast, er det en visuell indikasjon på at tasten blir trykket, og den er også ledsaget av en lyd, som registreres som bekreftelse på trykket.

For det meste er dette bare en liten del av hva du kan forvente når Apple endelig lanserer sitt nye hodesett. Selskapet har fremhevet maskinvaren, programvaren og verktøyene som er tilgjengelige. Herfra vil det være opp til utviklerne å lage interessante apper for å lokke folk inn. Dette er et ekstremt nisjeprodukt som koster mye penger. Selv om ingen forventer at dette skal bli en suksess over natten, har mange andre selskaper forsøkt å introdusere lignende produkter og har ennå ikke fått gjennomslag. Vil Apple være den første til å endre denne produktkategorien og gjøre den populær, slik den har gjort tidligere med mange andre produkter? Bare tiden vil vise, men hvis alt dette høres interessant ut, anbefaler jeg å sjekke ut utviklerøkt for å få alle detaljer om hvordan Apple vil bruke bevegelser.