Dai un'occhiata più da vicino a come Apple sfrutta i gesti familiari per nuove interazioni con Vision Pro

Apple sta gettando le basi per garantire che gli utenti si sentano a proprio agio con Vision Pro.

Apple ha riflettuto molto sul modo in cui gli utenti interagiranno Visione Pro. Gli input tradizionali da tastiera, trackpad, controller e voce sono tutte opzioni, ma Apple lo vuole davvero i suoi utenti potranno usare gli occhi e le mani con il suo prossimo dispositivo, creando un'esperienza più personale e connessa esperienza. Naturalmente, ci sono molte domande senza risposta a questo punto, e ci sono state anche molte persone che sono intervenute con le loro pensieri sul dispositivo. Quindi è sempre interessante avere il punto di vista di qualcuno che ha fortemente investito nello spazio, come Andrew Hart, fondatore di Hyper, un'azienda che crea esperienze AR indoor per la vendita al dettaglio.

Fonte: Apple

Hart ha condiviso le sue opinioni su Vision Pro in una serie di tweet evidenziando gli ottimi punti trovati nella sessione dello sviluppatore e il modo in cui gli utenti interagiranno con i contenuti quando utilizzano Vision Pro. Apple sta creando nuove forme di interazione per il suo prodotto unico, ma ciò non significa che debba allontanarsi dalle azioni a cui siamo abituati ogni giorno utilizzando PC e smartphone. Per creare un senso di familiarità con il suo Vision Pro, Apple sta sfruttando questi gesti in modo che gli utenti possano concentrarsi maggiormente sull'esperienza e meno sul metodo di interazione. Utilizzando gesti familiari, come toccare e pizzicare per ingrandire, Apple è in grado di ridurre la curva di apprendimento della nuova esperienza. Ma ciò che fa davvero funzionare tutto questo così bene è che l'esperienza è così calibrata che le interazioni e le azioni sembrano fluide.

Nella sessione dello sviluppatore, un esempio mostra come un utente può ingrandire un'immagine semplicemente guardando un'area e poi ingrandendola con un gesto della mano. L'interazione è naturale se hai mai utilizzato uno smartphone; meglio di tutto, non ti tira fuori dall'esperienza. Apple sottolinea inoltre quanto sia importante per gli sviluppatori mantenere gli oggetti al centro dell’inquadratura per ridurre l’affaticamento degli occhi e del collo. Ma mostra anche come gli elementi nella periferica possono essere utilizzati con azioni che possono spostare lo strumento di scrittura da uno all'altro da un'area all'altra rapidamente con un semplice tocco da parte dell'utente, proprio come funzionerebbe su un PC o smartphone.

Ma da quello che abbiamo visto e sentito da coloro che l'hanno sperimentato, Apple ha fatto le cose nel modo giusto e questo metodo di interazione è diverso da qualsiasi cosa abbiamo mai visto prima. Il nostro Ben Sin era presente al WWDC e ha ottenuto tempo pratico con Vision Proe ha condiviso i suoi pensieri, parlando di quanto fosse facile navigare nell'interfaccia utente usando gli occhi e le mani. Forse una delle differenze importanti con Vision Pro rispetto ad altri prodotti precedenti è questa questi tipi di interazioni sembravano fluide, offrendo agli utenti strumenti familiari ma con nuovi modi di interagire contenuto.

Apple è consapevole che qualsiasi interazione con le mani causerà affaticamento e consiglia di minimizzarlo quando possibile. Ma a volte sarà necessario che questi tipi creino un'esperienza migliore. Sebbene questi tipi di gesti siano importanti, Apple dispone anche di controlli di accessibilità integrati che consentiranno agli utenti di selezionare l'azione con gli occhi, se necessario. Forse uno dei maggiori avvertimenti con Vision Pro di Apple è che non può fornire alcun tipo di feedback tattile poiché non utilizza controller fisici. Ora, questo è un grosso problema perché quando normalmente interagiamo con le cose nel mondo reale, non solo le vediamo, ma le sentiamo anche.

Questo è probabilmente uno degli ostacoli più difficili quando si costruiscono oggetti in uno spazio digitale e Apple discute di come superare questo problema compensando utilizzando altri tipi di informazioni sensoriali. Un ottimo esempio di ciò è la tastiera di visionOS, con Apple che solleva i tasti dalla base della tastiera digitale per creare un senso di profondità. Apple utilizza anche l'illuminazione, grazie alla quale i tasti vengono evidenziati quando un dito passa sopra di essi. La luce diventa più intensa quando un dito si avvicina e si attenua quando si allontana. Quando un utente interagisce e preme un tasto, c'è un'indicazione visiva che il tasto è stato premuto ed è anche accompagnata da un suono, che viene registrato come conferma della pressione.

Per la maggior parte, questa è solo una piccola parte di cosa aspettarsi quando Apple lancerà finalmente le sue nuove cuffie. L'azienda ha evidenziato l'hardware, il software e gli strumenti disponibili. Da qui, spetterà agli sviluppatori creare app interessanti per attirare le persone. Questo è un prodotto estremamente di nicchia che costa un sacco di soldi. Anche se nessuno si aspetta che questo sia un successo immediato, molte altre aziende hanno provato a introdurre prodotti simili e devono ancora guadagnare terreno. Riuscirà Apple la prima a cambiare questa categoria di prodotto e a renderla popolare, come ha fatto in passato con tanti altri prodotti? Solo il tempo lo dirà, ma se tutto sembra interessante, ti consiglio di dare un'occhiata sessione dello sviluppatore per ottenere tutti i dettagli su come Apple utilizzerà i gesti.