Apple prépare le terrain pour garantir que les utilisateurs se sentiront à l'aise avec Vision Pro.
Apple a beaucoup réfléchi à la manière dont les utilisateurs interagiront avec VisionPro. Les entrées traditionnelles à partir d'un clavier, d'un trackpad, d'un contrôleur et de la voix sont toutes des options, mais Apple veut vraiment ses utilisateurs d'utiliser leurs yeux et leurs mains avec son prochain appareil, créant ainsi un environnement plus personnel et connecté expérience. Bien sûr, il reste beaucoup de questions sans réponse à ce stade, et de nombreuses personnes ont également répondu à leurs questions. réflexions sur l'appareil. Il est donc toujours intéressant d'avoir le point de vue de quelqu'un qui est fortement investi dans le domaine, comme Andrew Hart, fondateur d'Hyper, une entreprise qui crée des expériences de réalité augmentée en intérieur pour le commerce de détail.
Source: Pomme
Hart a partagé son point de vue sur Vision Pro dans une série de tweets mettant en évidence les points intéressants trouvés dans la session de développement et la manière dont les utilisateurs interagiront avec le contenu lors de l'utilisation de Vision Pro. Apple crée de nouvelles formes d'interaction pour son produit unique, mais cela ne signifie pas qu'il doit s'éloigner des actions auxquelles nous nous sommes habitués chaque jour en utilisant des PC et des smartphones. Afin de créer un sentiment de familiarité avec son Vision Pro, Apple exploite ces gestes afin que les utilisateurs puissent se concentrer davantage sur l'expérience et moins sur la méthode d'interaction. En utilisant des gestes familiers, comme appuyer et pincer pour zoomer, Apple est en mesure de réduire la courbe d'apprentissage de la nouvelle expérience. Mais ce qui fait que cela fonctionne si bien, c'est que l'expérience est tellement intégrée que les interactions et les actions semblent transparentes.
Dans la session développeur, un exemple montre comment un utilisateur peut zoomer sur une image simplement en regardant une zone, puis en la pinçant d'un geste de la main. L'interaction est naturelle si vous avez déjà utilisé un smartphone; Mieux encore, cela ne vous retire pas de l'expérience. Apple souligne également à quel point il est important pour les développeurs de garder les éléments au milieu du cadre afin de réduire la fatigue oculaire et cervicale. Mais il montre également comment les éléments du périphérique peuvent être utilisés avec des actions qui peuvent déplacer l'outil d'écriture d'un endroit à l'autre. zone à une autre rapidement d’un simple clic de la part de l’utilisateur, un peu comme cela fonctionnerait sur un PC ou téléphone intelligent.
Mais d'après ce que nous avons vu et entendu de la part de ceux qui l'ont vécu, Apple a bien fait les choses, et cette méthode d'interaction ne ressemble à rien de ce que nous avons jamais vu auparavant. Notre propre Ben Sin était présent à la WWDC et a obtenu temps pratique avec le Vision Pro, et il a partagé ses réflexions, expliquant à quel point il était facile de naviguer dans l'interface utilisateur avec ses yeux et ses mains. L'une des différences importantes entre le Vision Pro et les autres produits qui l'ont précédé est peut-être que ces types d'interactions semblaient fluides, offrant aux utilisateurs des outils familiers mais avec de nouvelles façons d'interagir avec contenu.
Apple est conscient que toute interaction avec les mains entraînera de la fatigue et recommande de la minimiser lorsque cela est possible. Mais ces types seront parfois nécessaires pour créer une meilleure expérience. Bien que ces types de gestes soient importants, Apple dispose également de contrôles d'accessibilité intégrés qui permettront aux utilisateurs de sélectionner l'action avec leurs yeux si nécessaire. L’un des plus gros inconvénients du Vision Pro d’Apple est peut-être qu’il ne peut fournir aucun type de retour tactile puisqu’il n’utilise pas de contrôleurs physiques. Maintenant, c'est un gros problème parce que lorsque nous interagissons normalement avec des choses dans le monde réel, non seulement nous le voyons, mais nous le ressentons également.
C’est probablement l’un des obstacles les plus difficiles à surmonter lors de la construction d’objets dans un espace numérique, et Apple envisage de surmonter ce problème en compensant en utilisant d’autres types d’informations sensorielles. Un bon exemple en est le clavier de visionOS, Apple soulevant les touches de la base du clavier numérique pour créer une impression de profondeur. Apple utilise également l'éclairage, où les touches sont mises en évidence lorsqu'un doigt les survole. La lumière devient plus brillante à mesure qu’un doigt s’approche et s’atténue lorsqu’il s’éloigne. Lorsqu'un utilisateur interagit et appuie sur une touche, il y a une indication visuelle que la touche est enfoncée, et elle est également accompagnée d'un son, qui est enregistré comme confirmation de la pression.
Pour l’essentiel, ce n’est qu’une petite partie de ce à quoi s’attendre lorsque Apple lancera enfin son nouveau casque. La société a mis en avant le matériel, les logiciels et les outils disponibles. À partir de là, ce sera aux développeurs de créer des applications intéressantes pour attirer les gens. Il s’agit d’un produit extrêmement spécialisé qui coûte très cher. Même si personne ne s’attend à ce que ce soit un succès immédiat, de nombreuses autres sociétés ont tenté d’introduire des produits similaires et n’ont pas encore vraiment gagné du terrain. Apple sera-t-il le premier à modifier cette catégorie de produits et à la rendre populaire, comme elle l'a fait dans le passé avec de nombreux autres produits? Seul le temps nous le dira, mais si tout cela vous semble intéressant, je vous recommande de consulter le séance développeur pour obtenir tous les détails sur la façon dont Apple utilisera les gestes.