Mire más de cerca cómo Apple aprovecha los gestos familiares para nuevas interacciones con Vision Pro

Apple está sentando las bases para garantizar que los usuarios se sientan cómodos con Vision Pro.

Apple ha pensado mucho en cómo interactuarán los usuarios con Visión Pro. Las entradas tradicionales desde un teclado, trackpad, controlador y voz son todas opciones, pero Apple realmente quiere a sus usuarios usar sus ojos y manos con su próximo dispositivo, creando una experiencia más personal y conectada. experiencia. Por supuesto, hay muchas preguntas sin respuesta en este momento, y también ha habido muchas personas interviniendo con sus pensamientos sobre el dispositivo. Por eso, siempre es interesante conocer el punto de vista de alguien que ha invertido mucho en el espacio, como Andrew Hart, fundador de Hyper, una empresa que crea experiencias de realidad aumentada en interiores para el comercio minorista.

Fuente: manzana

Hart compartió sus puntos de vista sobre Vision Pro en una serie de tuits destacando los grandes puntos que se encuentran en la sesión del desarrollador y cómo los usuarios interactuarán con el contenido cuando utilicen Vision Pro. Apple está creando nuevas formas de interacción para su producto único, pero eso no significa que deba alejarse de acciones a las que nos hemos acostumbrado todos los días mediante el uso de PC y teléfonos inteligentes. Para crear una sensación de familiaridad con su Vision Pro, Apple está aprovechando estos gestos para que los usuarios puedan centrarse más en la experiencia y menos en el método de interacción. Al utilizar gestos familiares, como tocar y pellizcar para hacer zoom, Apple puede reducir la curva de aprendizaje de la nueva experiencia. Pero lo que realmente hace que esto funcione tan bien es que la experiencia es tan personalizada que las interacciones y acciones se sienten fluidas.

En la sesión de desarrollador, un ejemplo muestra cómo un usuario puede ampliar una imagen simplemente mirando un área y luego pellizcando con un gesto de la mano. La interacción es natural si alguna vez has usado un teléfono inteligente; Lo mejor de todo es que no te saca de la experiencia. Apple también destaca lo importante que es para los desarrolladores mantener las cosas en el medio del encuadre para reducir la tensión en los ojos y el cuello. Pero también muestra cómo los elementos del periférico se pueden utilizar con acciones que pueden mover la herramienta de escritura de un lugar a otro. área a otra rápidamente con solo un simple toque del usuario, muy parecido a cómo funcionaría en una PC o teléfono inteligente.

Pero por lo que hemos visto y oído de quienes lo han experimentado, Apple ha hecho las cosas bien y este método de interacción no se parece a nada que hayamos visto antes. Nuestro propio Ben Sin estuvo presente en la WWDC y obtuvo tiempo práctico con Vision Proy compartió sus pensamientos y habló de lo fácil que era navegar por la interfaz de usuario con los ojos y las manos. Quizás una de las diferencias importantes con Vision Pro en comparación con otros productos anteriores es que Este tipo de interacciones se sintieron fluidas, brindando a los usuarios herramientas familiares pero con nuevas formas de interactuar con contenido.

Apple es consciente de que cualquier interacción con las manos provocará fatiga y recomienda minimizarla cuando sea posible. Pero a veces será necesario que estos tipos creen una mejor experiencia. Si bien este tipo de gestos son importantes, Apple también tiene controles de accesibilidad integrados que permitirán a los usuarios seleccionar la acción con los ojos si es necesario. Quizás una de las mayores advertencias del Vision Pro de Apple es que no puede proporcionar ningún tipo de respuesta táctil ya que no utiliza controladores físicos. Ahora bien, esto es muy importante porque cuando normalmente interactuamos con cosas en el mundo real, no sólo las vemos, sino que también las sentimos.

Este es probablemente uno de los obstáculos difíciles a la hora de construir objetos en un espacio digital, y Apple analiza cómo superar este problema compensando el uso de otros tipos de información sensorial. Un gran ejemplo de esto es el teclado de visionOS, en el que Apple eleva las teclas desde la base del teclado digital para crear una sensación de profundidad. Apple también hace uso de la iluminación, donde las teclas se resaltan cuando un dedo pasa sobre ellas. La luz se vuelve más brillante cuando un dedo se acerca y se vuelve más tenue cuando se aleja. Cuando un usuario interactúa y presiona una tecla, hay una indicación visual de que la tecla está siendo presionada y también va acompañada de un sonido, que se registra como confirmación de la presión.

En su mayor parte, esto es sólo una pequeña parte de lo que podemos esperar cuando Apple finalmente lance sus nuevos auriculares. La empresa ha destacado el hardware, software y herramientas disponibles. A partir de aquí, dependerá de los desarrolladores crear aplicaciones interesantes para atraer a la gente. Este es un producto extremadamente especializado que cuesta mucho dinero. Si bien nadie espera que esto sea un éxito de la noche a la mañana, muchas otras empresas han intentado introducir productos similares y aún no han ganado terreno. ¿Será Apple el primero en cambiar esta categoría de producto y hacerla popular, como lo ha hecho en el pasado con muchos otros productos? Sólo el tiempo lo dirá, pero si todo esto te parece interesante, te recomiendo que consultes el sesión de desarrollador para obtener todos los detalles sobre cómo Apple utilizará los gestos.