Google은 Pixel 4와 같은 지원되는 장치에서 깊이 API에 대한 듀얼 카메라 지원을 추가하는 ARCore SDK 버전 1.23을 출시합니다.
ARCore는 증강 현실 앱을 만들기 위한 Google의 SDK이며 Google의 실패한 Project Tango 실험과 달리 작동하는 데 특수 하드웨어가 필요하지 않습니다. 휴대전화에 필요한 것은 단일 RGB 카메라, 정확한 자이로스코프와 가속도계 판독값을 제공하는 IMU 센서, 광범위한 교정 데이터뿐입니다. 이러한 기본 센서와 단일 카메라를 사용하여 ARCore의 Depth API는 깊이 맵을 생성할 수 있습니다. 폐색, 보다 현실적인 물리학, 경로 계획, 표면 상호 작용 등과 같은 기능을 활성화합니다. 카메라 한 대만으로 이미 몰입감 넘치는 경험을 할 수 있다는 점이 인상적이지만, 믹스에 다른 카메라를 도입할 수 있다면 몰입감이 훨씬 더 높아질 것입니다. 이것이 바로 Google이 최신 버전의 증강 현실 SDK를 사용하여 수행할 계획인 것 같습니다.
ARCore의 Depth API를 사용하여 단일 RGB 카메라를 사용하여 폐색을 만듭니다. 출처: 구글
발견한 대로 Android경찰, ARCore SDK 버전 1.23의 변경 로그에는 "지원되는 장치의 듀얼 카메라 스테레오 깊이"가 언급되어 있습니다. 흥미롭게도 ARCore 1.23의 릴리스 노트는 GitHub에서 듀얼 카메라 스테레오 깊이 지원은 언급하지 않았지만 릴리스 노트에는 언급되어 있습니다. Google 개발자 페이지에서. Google 개발자 페이지의 출시 노트에는 SDK를 지원하는 Google의 기기 목록이 나와 있습니다. 최근에 업데이트되었습니다 Pixel 4 및 Pixel 4 XL에 대해 "향후 몇 주 안에 듀얼 카메라 지원이 출시될 예정"이라고 명시했습니다.
Google의 Pixel 4 및 4 XL은 보조 망원 카메라를 탑재한 유일한 Pixel 휴대폰인 반면, Google의 Pixel 4a 5G 및 Pixel 5는 보조 초광각 카메라를 탑재했습니다. 두 번째 카메라에 대한 지원을 추가하려면 많은 보정 작업이 필요할 수 있으므로 일부 기존 장치에서는 듀얼 카메라 스테레오 깊이 맵을 지원하지 못할 수도 있습니다. 그러나 여러 전화기에는 비행 시간 센서가 있습니다.
개선하다 스캐닝 시간을 줄이고 평면 감지를 개선하여 깊이 매핑 경험 품질을 향상시킵니다. 듀얼 카메라 심도 지원이 얼마나 개선될지는 아직 알 수 없지만, Google이 이번 달 말에 발표한 후 몇 가지 데모를 선보일 수 있기를 바랍니다.