Sehen Sie sich genauer an, wie Apple mit Vision Pro bekannte Gesten für neue Interaktionen nutzt

click fraud protection

Apple legt den Grundstein, um sicherzustellen, dass sich Benutzer mit Vision Pro wohl fühlen.

Apple hat viel darüber nachgedacht, wie Benutzer mit ihnen interagieren Vision Pro. Herkömmliche Eingaben über Tastatur, Trackpad, Controller und Stimme sind alles Optionen, aber Apple möchte wirklich Seine Benutzer können ihre Augen und Hände mit dem kommenden Gerät nutzen und so ein persönlicheres und vernetzteres Erlebnis schaffen Erfahrung. Natürlich gibt es zu diesem Zeitpunkt viele unbeantwortete Fragen, und es gab auch viele Leute, die sich dieser Frage angeschlossen haben Gedanken zum Gerät. Daher ist es immer interessant, die Meinung von jemandem zu erfahren, der viel in den Bereich investiert, wie Andrew Hart, dem Gründer von Hyper, einem Unternehmen, das Indoor-AR-Erlebnisse für den Einzelhandel entwickelt.

Quelle: Apple

Hart teilte seine Ansichten zu Vision Pro in einer Reihe von Tweets Hervorheben wichtiger Punkte, die in der Entwicklersitzung gefunden wurden, und wie Benutzer mit Inhalten interagieren, wenn sie Vision Pro verwenden. Apple schafft für sein einzigartiges Produkt neue Formen der Interaktion, aber das bedeutet nicht, dass es von den Aktionen abweichen muss, an die wir uns jeden Tag durch die Nutzung von PCs und Smartphones gewöhnt haben. Um ein Gefühl der Vertrautheit mit seinem Vision Pro zu erzeugen, nutzt Apple diese Gesten, damit sich Benutzer mehr auf das Erlebnis und weniger auf die Art der Interaktion konzentrieren können. Durch die Verwendung vertrauter Gesten wie Tippen und Zusammenziehen zum Zoomen kann Apple den Lernaufwand für das neue Erlebnis verkürzen. Aber was das wirklich so gut macht, ist, dass das Erlebnis so abgestimmt ist, dass sich Interaktionen und Aktionen nahtlos anfühlen.

In der Entwicklersitzung wird anhand eines Beispiels gezeigt, wie ein Benutzer in ein Bild hineinzoomen kann, indem er einfach auf einen Bereich schaut und ihn dann mit einer Handbewegung hineinzieht. Die Interaktion ist natürlich, wenn Sie jemals ein Smartphone verwendet haben; Das Beste daran ist, dass es Sie nicht aus der Erfahrung reißt. Apple betont außerdem, wie wichtig es für Entwickler ist, die Dinge in der Mitte des Bildes zu platzieren, um die Belastung von Augen und Nacken zu verringern. Es zeigt aber auch, wie Elemente in der Peripherie mit Aktionen verwendet werden können, mit denen das Schreibwerkzeug von einem Gerät bewegt werden kann Mit nur einem einfachen Fingertipp des Benutzers können Sie einen Bereich schnell in einen anderen verschieben, ähnlich wie es auf einem PC funktionieren würde Smartphone.

Aber nach dem, was wir gesehen und von denjenigen gehört haben, die es erlebt haben, hat Apple die Dinge genau richtig gemacht, und diese Interaktionsmethode ist mit nichts zu vergleichen, was wir jemals zuvor gesehen haben. Unser eigener Ben Sin war auf der WWDC anwesend und bekam praktische Zeit mit dem Vision Pro, und er teilte seine Gedanken mit und besprach, wie einfach es sei, mit seinen Augen und Händen durch die Benutzeroberfläche zu navigieren. Vielleicht ist dies einer der wichtigen Unterschiede des Vision Pro im Vergleich zu anderen Produkten, die es davor gab Diese Art der Interaktion fühlte sich nahtlos an und bot den Benutzern vertraute Tools, aber neue Möglichkeiten der Interaktion Inhalt.

Apple ist sich bewusst, dass jede Interaktion mit den Händen zu Ermüdung führt und empfiehlt, diese nach Möglichkeit zu minimieren. Manchmal werden diese Typen jedoch benötigt, um ein besseres Erlebnis zu schaffen. Obwohl diese Art von Gesten wichtig ist, verfügt Apple auch über integrierte Eingabehilfen, die es Benutzern ermöglichen, die Aktion bei Bedarf mit den Augen auszuwählen. Einer der vielleicht größten Vorbehalte bei Apples Vision Pro besteht darin, dass er keinerlei taktiles Feedback geben kann, da er keine physischen Controller verwendet. Das ist eine große Sache, denn wenn wir normalerweise mit Dingen in der realen Welt interagieren, sehen wir sie nicht nur, sondern können sie auch fühlen.

Dies ist wahrscheinlich eine der schwierigsten Hürden beim Bau von Objekten in einem digitalen Raum, und Apple diskutiert, dieses Problem durch die Verwendung anderer Arten sensorischer Informationen zum Ausgleich zu überwinden. Ein gutes Beispiel hierfür ist die Tastatur in visionOS, bei der Apple die Tasten von der Basis der digitalen Tastatur abhebt, um ein Gefühl von Tiefe zu erzeugen. Apple nutzt auch die Beleuchtung, bei der die Tasten hervorgehoben werden, wenn ein Finger darüber schwebt. Das Licht wird heller, wenn sich ein Finger nähert, und schwächer, wenn er sich entfernt. Wenn ein Benutzer interagiert und eine Taste drückt, gibt es eine visuelle Anzeige, dass die Taste gedrückt wird, und es wird auch von einem Ton begleitet, der als Bestätigung des Drückens registriert wird.

Im Großen und Ganzen ist dies nur ein kleiner Teil dessen, was Sie erwarten können, wenn Apple endlich sein neues Headset auf den Markt bringt. Das Unternehmen hat die verfügbare Hardware, Software und Tools hervorgehoben. Von hier aus liegt es an den Entwicklern, interessante Apps zu entwickeln, um Menschen anzulocken. Es handelt sich hierbei um ein äußerst Nischenprodukt, das viel Geld kostet. Während niemand damit rechnet, dass dies über Nacht ein Erfolg wird, haben viele andere Unternehmen versucht, ähnliche Produkte auf den Markt zu bringen, konnten sich aber noch nicht wirklich durchsetzen. Wird Apple als erster diese Produktkategorie ändern und populär machen, wie es in der Vergangenheit bei vielen anderen Produkten der Fall war? Nur die Zeit wird es zeigen, aber wenn das alles interessant klingt, empfehle ich, einen Blick auf das zu werfen Entwicklersitzung um alle Details darüber zu erfahren, wie Apple Gesten nutzen wird.