Google, 사용자 몰입도를 높이는 새로운 기능으로 ARCore API 업그레이드

Google I/O 2021에서 Google은 개발자가 보다 현실적인 AR 경험을 구축하는 데 도움이 되는 ARCore 플랫폼에 대한 몇 가지 주목할만한 업데이트를 발표했습니다.

Google I/O 2021에서 Google은 전 세계 8억 5천만 대 이상의 Android 스마트폰을 지원하는 회사의 증강 현실 플랫폼인 ARCore에 대한 몇 가지 중요한 업그레이드를 발표했습니다. 특수 하드웨어가 필요한 Project Tango와 달리 ARCore는 휴대전화의 기존 하드웨어와 개발자가 대화형 AR을 구축하는 데 도움이 되도록 깊이, 동작 추적 및 빛 추정에 대한 데이터를 수집하는 센서 경험담.

Google은 출시 이후 ARCore의 기능 세트와 성능을 꾸준히 개선해 왔습니다. AR 앱 개발자가 기존 Android 하드웨어로 달성할 수 있는 작업의 한계 스마트폰. 지난해 구글은 ARCore Depth API 출시 개발자가 단 하나의 RGB 카메라를 사용하여 깊이 맵을 생성하고 보다 사실적인 AR 경험을 만들 수 있도록 합니다. 현재 회사는 ARCore의 무기고에 Raw Depth API와 Recording and Playback API라는 두 가지 새로운 도구를 추가하고 있습니다.

ARCore 원시 깊이 API

새로운 Raw Depth API는 깊이 API 해당 신뢰 이미지와 함께 원시 깊이 맵을 생성하여 주변 객체에 대한 보다 자세한 표현을 제공합니다. Depth API는 모든 픽셀에 대한 깊이 추정치를 사용하여 매끄러운 깊이 맵을 생성하는 데 중점을 두었지만 Raw API는 Depth API는 픽셀당 깊이를 제공하는 자신감 있는 이미지로 보다 사실적인 깊이 맵을 캡처하는 것을 목표로 합니다. 추정.

또 다른 개선 영역은 이제 평면 대신 깊이 맵을 사용하여 비평면 및 질감이 낮은 바닥에서도 더 많은 적중 테스트 결과를 제공하는 적중 테스트입니다. TeamViewer의 LifeAR 앱은 심도 히트 테스트를 활용하여 AR 기능을 화상 통화에 통합했습니다.

이러한 새로운 개선 사항에는 ToF(Time-of-Flight) 센서와 같은 특수 하드웨어가 필요하지 않으므로 대다수의 ARCore 인증 장치에서 구현할 수 있습니다. Raw Depth API와 깊이 적중 테스트는 오늘부터 개발자에게 제공됩니다.

ARCore 녹화 및 재생 API

새로운 Raw Depth API와 함께 Google은 앱 개발자가 다양한 AR 경험을 테스트할 수 있는 더 큰 유연성을 제공하는 ARCore의 새로운 녹음 및 재생 API도 선보였습니다. 새로운 AR 경험을 구축할 때 개발자는 특정 환경과 장소에서 지속적으로 테스트해야 하는 경우가 많습니다. 새로운 녹화 및 재생 API를 통해 개발자는 이제 AR 메타데이터로 비디오 장면을 녹화할 수 있습니다. 깊이 및 IMU 모션 센서 데이터와 같은 데이터를 사용하여 향후 동일한 환경을 재현합니다. 테스트. 여기서 아이디어는 매번 새로운 영상을 촬영하는 대신 영상을 한 번 녹화하고 이를 템플릿으로 사용하여 다른 AR 효과와 경험을 테스트하는 것입니다. 차량 호출 앱인 Didi-Rider는 API를 사용하여 앱에서 AR 기반 경로를 구축하고 테스트했으며 R&D 비용을 25% 절감하고 개발 주기를 6개월 단축할 수 있었습니다.

최종 사용자의 경우 Recording and Playback API를 통해 캡처 후 AR과 같은 새로운 AR 경험도 가능합니다. 이를 통해 사용자는 이전에 녹화된 비디오를 AR 앱에 제공할 수 있으므로 실제로 해당 위치에 있을 필요 없이 실시간 카메라 세션을 수행할 수 있습니다. 즉, 사용자는 영상을 한 번 촬영하고 나중에 AR 효과를 추가할 수 있습니다. ARCore Recording and Playback API는 오늘부터 개발자에게 제공되며 자세한 내용은 다음에서 확인할 수 있습니다. 이 페이지.