リアルな AR 体験を実現するために Google ARCore Depth API が利用可能になりました

Google は、より現実的な拡張現実エクスペリエンスを作成できるように、ARCore の Depth API をすべての開発者が利用できるようにしています。

ARCore は、Android および iOS で拡張現実エクスペリエンスを作成するための Google の SDK です。 Android デバイスでは、AR アプリ用の Google Play Services の一部として配信されます。 昨年末、 Googleがプレビューした ARCore Depth API は、単一のカメラを備えたデバイスの没入感を向上させます。 によると、現在、この API は Android と Unity の開発者向けに一般公開する準備ができています。 Google からのブログ投稿.

ARCore Depth API は、Google のモーションからの深度アルゴリズムを使用して、単一の RGB カメラから深度マップを生成します。 これは、さまざまな角度から複数の画像を撮影し、ユーザーがカメラを動かしながらそれらを比較することによって実現されます。 Depth API の重要な機能の 1 つは、デジタル オブジェクトを正確に配置できるようにするオクルージョンです。 後ろに 現実世界のオブジェクト。 オクルージョンを超えて、Depth API は現実的な物理学、現実世界の表面との相互作用、環境の横断なども可能にします。 以下に埋め込まれた GIF からわかるように、これらの機能により、拡張現実体験がより現実的になります。 ゲーム Five Nights at Freddy's AR: 特別配信 はこの機能を使用しており、Snap Inc. は API を使用しました ダンシングホットドッグ そして新しい アンダーシーワールド スナップチャットレンズ。 本日より、Android および Unity 用 ARCore 1.18 の開発者向けに Depth API が一般提供される予定です。

Snapchat Lens Creator は、Depth API テンプレートをダウンロードして、Android デバイス向けに独自の深度ベースのエクスペリエンスを作成できます。 リモート アシスタンス用アプリである TeamViewer Pilot は、Depth API を使用して、ビデオ通話中に拡張現実の注釈を有効にしています。 Google によれば、今年後半には、表面のインタラクションと環境の横断を活用した、さらに深度対応の AR エクスペリエンスが見られるようになるだろうと述べています。 たとえば、次のようなゲームがあります。

スカットリックス 別のゲームが呼ばれる間、あなたの家をデジタルスケートパークに変えます スプラッシュシャー AR カタツムリと部屋中で競争します。 開発者は、オープンソースのプロジェクトを通じてこれらの概念に基づいて構築できます。 GitHub.

Googleはまた、飛行時間型(ToF)センサーは必須ではないものの、スキャン時間を短縮し、飛行機の検出を改善することでエクスペリエンスの質を向上させることができると指摘している。 たとえば、Samsung は、Quick Measure アプリをアップデートして、ARCore Depth API を使用する予定です。 ギャラクシーノート10+ そして ギャラクシーS20ウルトラ. ただし、Google は、この機能は通常、 数億台の Android デバイス AR には RGB カメラが 1 台しか必要ないため、AR 用の Google Play サービスをサポートします。