ARCore 1.23 は、深度マップを改善するためのデュアル カメラのサポートを追加します

Google は、Pixel 4 などのサポート対象デバイスで深度 API のデュアル カメラ サポートを追加する ARCore SDK バージョン 1.23 を公開しています。

ARCore は拡張現実アプリを作成するための Google の SDK であり、失敗した Google の Project Tango 実験とは異なり、動作するために特殊なハードウェアを必要としません。 携帯電話に必要なのは、単一の RGB カメラ、正確なジャイロスコープと加速度計の読み取り値を提供する IMU センサー、および広範なキャリブレーション データだけです。 これらの基本的なセンサーと単一のカメラを使用して、ARCore の Depth API は深度マップを作成できます オクルージョン、より現実的な物理学、パス プランニング、サーフェス インタラクションなどの機能を有効にするため。 たった 1 台のカメラですでに体験がどれほど没入型であるかは印象的ですが、さらに別のカメラを導入できれば、体験はさらに没入型になるでしょう。 それはまさに、Googleが拡張現実SDKの最新バージョンで計画していることのようだ。

ARCore の Depth API を使用して、単一の RGB カメラを使用してオクルージョンを作成します。 出典: Google

によって発見されたように アンドロイド警察、ARCore SDK バージョン 1.23 の変更ログには、「サポートされているデバイスのデュアル カメラ ステレオ深度」と記載されています。 興味深いのは、ARCore 1.23 のリリース ノートです。 GitHub 上で デュアルカメラステレオ深度のサポートについては言及されていませんが、リリースノートには記載されています Google 開発者ページで. Google Developers ページのリリース ノートには、SDK をサポートする Google のデバイスのリストが記載されています。 最近更新されました Pixel 4とPixel 4 XLについて「デュアルカメラのサポートは今後数週間以内に展開される」と述べています。

Google の Pixel 4 と 4 XL は、セカンダリ望遠カメラを搭載した唯一の Pixel スマートフォンであり、Google の Pixel 4a 5G と Pixel 5 はセカンダリ超広角カメラを搭載しています。 2 台目のカメラのサポートを追加するには多くの調整作業が必要になる可能性が高いことを考えると、一部の既存のデバイスがデュアル カメラのステレオ深度マップをサポートしない可能性があります。 ただし、複数の携帯電話には飛行時間型センサーが搭載されており、

を改善する スキャン時間を短縮し、平面検出を改善することで、深度マッピング体験の品質を向上させます。 デュアルカメラ深度のサポートがどの程度の改善をもたらすかはまだわかりませんが、うまくいけば、Googleは今月後半の発表後にいくつかのデモを披露するでしょう。