Veja mais de perto como a Apple aproveita gestos familiares para novas interações com o Vision Pro

A Apple está preparando o terreno para garantir que os usuários se sintam confortáveis ​​com o Vision Pro.

A Apple pensou muito em como os usuários irão interagir com Visão Profissional. Entradas tradicionais de teclado, trackpad, controlador e voz são opções, mas a Apple realmente quer seus usuários usem os olhos e as mãos com seu próximo dispositivo, criando um ambiente mais pessoal e conectado experiência. Claro, há muitas perguntas sem resposta neste momento, e também tem havido muitas pessoas concordando com suas pensamentos sobre o dispositivo. Portanto, é sempre interessante obter o ponto de vista de alguém que investe pesadamente no espaço, como Andrew Hart, que é o fundador da Hyper, uma empresa que cria experiências de AR internas para o varejo.

Fonte: Maçã

Hart compartilhou suas opiniões sobre o Vision Pro em uma série de tweets destacando grandes pontos encontrados na sessão do desenvolvedor e como os usuários irão interagir com o conteúdo ao usar o Vision Pro. A Apple está criando novas formas de interação para seu produto exclusivo, mas isso não significa que ela precise se afastar das ações às quais nos acostumamos todos os dias usando PCs e smartphones. Para criar uma sensação de familiaridade com o Vision Pro, a Apple está aproveitando esses gestos para que os usuários possam se concentrar mais na experiência e menos no método de interação. Ao usar gestos familiares, como tocar e beliscar para ampliar, a Apple consegue reduzir a curva de aprendizado da nova experiência. Mas o que realmente faz isso funcionar tão bem é que a experiência é tão integrada que as interações e ações parecem perfeitas.

Na sessão do desenvolvedor, um exemplo mostra como um usuário pode ampliar uma imagem simplesmente olhando para uma área e, em seguida, apertando com um gesto manual. A interação é natural se você já usou um smartphone; o melhor de tudo é que isso não tira você da experiência. A Apple também destaca como é importante para os desenvolvedores manter as coisas no meio do quadro para reduzir o cansaço visual e no pescoço. Mas também mostra como os itens periféricos podem ser usados ​​com ações que podem mover a ferramenta de escrita de um área para outra rapidamente com apenas um simples toque do usuário, da mesma forma que funcionaria em um PC ou Smartphone.

Mas pelo que vimos e ouvimos de quem já experimentou, a Apple acertou em cheio e esse método de interação é diferente de tudo que já vimos antes. Nosso próprio Ben Sin esteve presente na WWDC e conseguiu tempo prático com o Vision Pro, e ele compartilhou suas ideias, discutindo como era fácil navegar na IU usando os olhos e as mãos. Talvez uma das diferenças importantes do Vision Pro em comparação com outros produtos anteriores seja que esses tipos de interação pareciam perfeitos, oferecendo aos usuários ferramentas familiares, mas com novas maneiras de interagir com contente.

A Apple está ciente de que qualquer interação com as mãos causará fadiga e recomenda minimizar isso sempre que possível. Mas às vezes haverá necessidade desses tipos para criar uma experiência melhor. Embora esses tipos de gestos sejam importantes, a Apple também possui controles de acessibilidade integrados que permitirão aos usuários selecionar a ação com os olhos, se necessário. Talvez uma das maiores advertências do Vision Pro da Apple seja que ele não pode fornecer nenhum tipo de feedback tátil, pois não usa controladores físicos. Agora, isso é importante porque quando normalmente interagimos com coisas no mundo real, não apenas vemos, mas também sentimos.

Este é provavelmente um dos obstáculos difíceis na construção de objetos em um espaço digital, e a Apple discute como superar esse problema compensando o uso de outros tipos de informação sensorial. Um ótimo exemplo disso é o teclado do visionOS, com a Apple levantando as teclas da base do teclado digital para criar uma sensação de profundidade. A Apple também faz uso de iluminação, onde as teclas ficam destacadas quando um dedo passa sobre elas. A luz fica mais brilhante à medida que um dedo se aproxima e fica mais fraca quando se afasta. Quando um usuário interage e pressiona uma tecla, há uma indicação visual de que a tecla está sendo pressionada, e também é acompanhada por um som, que é registrado como confirmação do pressionamento.

Na maior parte, isso é apenas uma pequena parte do que esperar quando a Apple finalmente lançar seu novo fone de ouvido. A empresa destacou o hardware, software e ferramentas disponíveis. A partir daqui, caberá aos desenvolvedores criar aplicativos interessantes para atrair as pessoas. Este é um produto extremamente específico que custa muito dinheiro. Embora ninguém espere que este seja um sucesso da noite para o dia, muitas outras empresas tentaram lançar produtos semelhantes e ainda não conseguiram realmente ganhar força. Será a Apple a primeira a mudar esta categoria de produto e torná-la popular, como fez no passado com muitos outros produtos? Só o tempo dirá, mas se tudo isso parece interessante, recomendo dar uma olhada no sessão de desenvolvedor para obter todos os detalhes sobre como a Apple utilizará os gestos.