Apple legt de basis om ervoor te zorgen dat gebruikers zich op hun gemak zullen voelen met Vision Pro.
Apple heeft veel nagedacht over de manier waarop gebruikers ermee zullen omgaan Visie Pro. Traditionele invoer via een toetsenbord, trackpad, controller en stem zijn allemaal opties, maar Apple wil het echt zijn gebruikers om hun ogen en handen te gebruiken met het aankomende apparaat, waardoor een persoonlijker en verbondener geheel ontstaat ervaring. Natuurlijk zijn er op dit moment veel onbeantwoorde vragen, en er zijn ook veel mensen die hun mening hebben gegeven. gedachten over het apparaat. Het is dus altijd interessant om een mening te krijgen van iemand die zwaar in de ruimte heeft geïnvesteerd, zoals Andrew Hart, de oprichter van Hyper, een bedrijf dat indoor AR-ervaringen voor de detailhandel creëert.
Bron: Appel
Hart deelde zijn mening over Vision Pro in een reeks tweets waarbij de belangrijkste punten uit de ontwikkelaarssessie worden benadrukt en hoe gebruikers met inhoud zullen omgaan bij het gebruik van Vision Pro. Apple creëert nieuwe vormen van interactie voor zijn unieke product, maar dat betekent niet dat het moet afwijken van de acties waaraan we elke dag gewend zijn geraakt door het gebruik van pc's en smartphones. Om een gevoel van vertrouwdheid met zijn Vision Pro te creëren, maakt Apple gebruik van deze gebaren, zodat gebruikers zich meer kunnen concentreren op de ervaring en minder op de interactiemethode. Door bekende gebaren te gebruiken, zoals tikken en knijpen om te zoomen, kan Apple de leercurve van de nieuwe ervaring verkorten. Maar wat dit echt zo goed maakt, is dat de ervaring zo is afgestemd dat interacties en acties naadloos aanvoelen.
In de ontwikkelaarssessie laat een voorbeeld zien hoe een gebruiker kan inzoomen op een afbeelding door simpelweg naar een gebied te kijken en vervolgens met een handgebaar naar binnen te knijpen. De interactie is natuurlijk als je ooit een smartphone hebt gebruikt; Het beste van alles is dat het je niet uit de ervaring haalt. Apple benadrukt ook hoe belangrijk het is voor ontwikkelaars om dingen in het midden van het frame te houden om oog- en nekbelasting te verminderen. Maar het laat ook zien hoe items in de randapparatuur kunnen worden gebruikt met acties die het schrijfinstrument van één kunnen verplaatsen snel naar een ander gebied gaan met slechts een simpele tik van de gebruiker, net zoals het zou werken op een pc of smartphone.
Maar van wat we hebben gezien en gehoord van degenen die het hebben meegemaakt, heeft Apple alles precies goed gedaan, en deze interactiemethode is als niets dat we ooit eerder hebben gezien. Onze eigen Ben Sin was aanwezig bij WWDC en kreeg hands-on tijd met de Vision Pro, en hij deelde zijn gedachten en besprak hoe gemakkelijk het was om met zijn ogen en handen door de gebruikersinterface te navigeren. Misschien is dat wel een van de belangrijke verschillen met de Vision Pro vergeleken met andere producten die eraan voorafgingen Dit soort interacties voelde naadloos aan, waardoor gebruikers vertrouwde tools kregen, maar met nieuwe manieren om ermee te communiceren inhoud.
Apple is zich ervan bewust dat elke interactie met de handen vermoeidheid zal veroorzaken en raadt aan dit indien mogelijk tot een minimum te beperken. Maar soms zal er behoefte zijn aan dit soort dingen om een betere ervaring te creëren. Hoewel dit soort gebaren belangrijk zijn, heeft Apple ook ingebouwde toegankelijkheidsopties waarmee gebruikers de actie indien nodig met hun ogen kunnen selecteren. Misschien wel een van de grootste kanttekeningen bij Apple's Vision Pro is dat het geen enkele vorm van tactiele feedback kan geven, omdat het geen fysieke controllers gebruikt. Dit is een groot probleem, want als we normaal gesproken omgaan met dingen in de echte wereld, zien we het niet alleen, maar kunnen we het ook voelen.
Dit is waarschijnlijk een van de lastige hindernissen bij het bouwen van objecten in een digitale ruimte, en Apple bespreekt het overwinnen van dit probleem door te compenseren met behulp van andere soorten sensorische informatie. Een goed voorbeeld hiervan is het toetsenbord in visionOS, waarbij Apple de toetsen vanaf de onderkant van het digitale toetsenbord omhoog haalt om een gevoel van diepte te creëren. Apple maakt ook gebruik van verlichting, waarbij de toetsen oplichten als er een vinger overheen beweegt. Het licht wordt helderder als een vinger dichterbij komt en zwakker als hij weggaat. Wanneer een gebruiker interactie heeft en op een toets drukt, is er een visuele indicatie dat de toets wordt ingedrukt, en gaat dit ook gepaard met een geluid, dat wordt geregistreerd als bevestiging van de druk.
Voor het grootste deel is dit slechts een klein deel van wat je kunt verwachten als Apple eindelijk zijn nieuwe headset lanceert. Het bedrijf heeft de beschikbare hardware, software en tools onder de aandacht gebracht. Vanaf hier is het aan de ontwikkelaars om interessante apps te maken om mensen naar binnen te lokken. Dit is een extreem nicheproduct dat veel geld kost. Hoewel niemand verwacht dat dit van de ene op de andere dag een succes zal worden, hebben veel andere bedrijven geprobeerd vergelijkbare producten te introduceren, maar hebben ze nog geen echte grip gekregen. Zal Apple de eerste zijn die deze productcategorie verandert en populair maakt, zoals het in het verleden met veel andere producten heeft gedaan? Alleen de tijd zal het leren, maar als dit allemaal interessant klinkt, raad ik aan om de ontwikkelaarssessie voor volledige details over hoe Apple gebaren gaat gebruiken.