Google actualiza la API ARCore con nuevas funciones para sumergir a los usuarios

En Google I/O 2021, Google anuncia algunas actualizaciones notables de la plataforma ARCore para ayudar a los desarrolladores a crear experiencias de RA más realistas.

En Google I/O 2021, Google anuncia algunas actualizaciones importantes para ARCore, la plataforma de realidad aumentada de la compañía que impulsa más de 850 millones de teléfonos inteligentes Android en todo el mundo. A diferencia del Proyecto Tango, que requería hardware especializado, ARCore depende del hardware existente de su teléfono y sensores para recopilar datos sobre profundidad, seguimiento de movimiento y estimación de luz para ayudar a los desarrolladores a crear AR interactivo experiencias.

Desde su lanzamiento, Google ha mejorado constantemente el conjunto de funciones y capacidades de ARCore, impulsando los límites de lo que los desarrolladores de aplicaciones AR pueden lograr con el hardware existente de Android teléfonos inteligentes. El año pasado, Google lanzó la API de profundidad ARCore para permitir a los desarrolladores generar un mapa de profundidad usando una sola cámara RGB y crear experiencias AR más realistas. Hoy, la compañía está agregando dos nuevas herramientas al arsenal de ARCore: Raw Depth API y Recording and Playback API.

API de profundidad bruta de ARCore

La nueva API Raw Depth se basa en la API de profundidad para proporcionar representaciones más detalladas de los objetos circundantes generando mapas de profundidad sin procesar con las correspondientes imágenes de confianza. Mientras que Depth API se centró en generar mapas de profundidad suavizados con estimaciones de profundidad para todos los píxeles, Raw La API de profundidad tiene como objetivo capturar mapas de profundidad más realistas con imágenes confiables que proporcionan una profundidad por píxel. estimar.

Otra área de mejora es la prueba de impacto, que ahora utiliza mapas de profundidad en lugar de planos para proporcionar más resultados de prueba incluso en pisos no planos y de baja textura. La aplicación LifeAR de TeamViewer ha utilizado la prueba de profundidad para integrar capacidades de AR en videollamadas.

Estas nuevas mejoras no requieren hardware especializado como sensores de tiempo de vuelo (ToF) y, por lo tanto, pueden implementarse en una gran mayoría de dispositivos certificados por ARCore. La API Raw Depth y la prueba de profundidad están disponibles para los desarrolladores a partir de hoy.

API de grabación y reproducción de ARCore

Además de la nueva API Raw Depth, Google también está presentando una nueva API de grabación y reproducción en ARCore que brinda a los desarrolladores de aplicaciones una mayor flexibilidad para probar diferentes experiencias de AR. Al crear nuevas experiencias de RA, los desarrolladores a menudo tienen que realizar pruebas continuas en entornos y lugares específicos. Con la nueva API de grabación y reproducción, los desarrolladores ahora pueden grabar secuencias de vídeo con metadatos AR como datos del sensor de movimiento IMU y de profundidad y usarlos para recrear el mismo entorno para más pruebas. La idea aquí es grabar el metraje una vez y usarlo como plantilla para probar otros efectos y experiencias de AR en lugar de grabar metraje nuevo cada vez. La aplicación de transporte compartido Didi-Rider utilizó la API para crear y probar direcciones basadas en AR en su aplicación y pudo ahorrar un 25 % en I+D y aceleró su ciclo de desarrollo en seis meses.

Para los usuarios finales, la API de grabación y reproducción también permite nuevas experiencias de RA, como la RA posterior a la captura. Esto permite a los usuarios enviar un video previamente grabado a aplicaciones AR, eliminando la necesidad de estar físicamente allí en el lugar y realizar una sesión de cámara en vivo. En otras palabras, los usuarios pueden grabar imágenes una vez y agregar efectos AR más tarde. La API de grabación y reproducción de ARCore está disponible para los desarrolladores a partir de hoy y puede leer más sobre ella en esta página.