Google が ARCore API をアップグレードし、ユーザーを夢中にさせる新機能を追加

Google I/O 2021 で、Google は開発者がよりリアルな AR エクスペリエンスを構築できるように、ARCore プラットフォームに対するいくつかの注目すべきアップデートを発表します。

Google I/O 2021 で、Google は、世界中で 8 億 5,000 万台以上の Android スマートフォンに搭載されている同社の拡張現実プラットフォームである ARCore の重要なアップグレードをいくつか発表します。 特殊なハードウェアを必要とした Project Tango とは異なり、ARCore は携帯電話の既存のハードウェアに依存し、 開発者がインタラクティブな AR を構築できるように、深度、モーション追跡、光推定に関するデータを収集するセンサー 経験。

Google はリリース以来、ARCore の機能セットと機能を着実に改善してきました。 AR アプリの開発者が Android の既存のハードウェアで達成できることの限界 スマートフォン。 昨年、グーグルは ARCore Depth API をリリースしました 開発者が 1 台の RGB カメラだけを使用して深度マップを生成し、より現実的な AR エクスペリエンスを作成できるようにします。 現在、同社は ARCore の武器庫に、Raw Depth API と Recording and Playback API という 2 つの新しいツールを追加しています。

ARCore Raw Depth API

新しい Raw Depth API は、 深度API 対応する信頼度画像を使用して生の深度マップを生成することで、周囲のオブジェクトのより詳細な表現を提供します。 Depth API はすべてのピクセルの深度推定値を含む平滑化された深度マップの生成に焦点を当てていましたが、Raw Depth API は、ピクセルごとの深度を提供する信頼性の高い画像を使用して、より現実的な深度マップをキャプチャすることを目的としています。 見積もり。

もう 1 つの改善点はヒット テストです。これにより、平面の代わりに深度マップが使用され、非平面でテクスチャの低い床でもより多くのヒット テスト結果が得られます。 TeamViewer の LifeAR アプリは、デプス ヒット テストを利用して、AR 機能をビデオ通話に統合しました。

これらの新しい改善は、飛行時間 (ToF) センサーのような特殊なハードウェアを必要としないため、ARCore 認定デバイスの大部分に実装できます。 Raw Depth API と深度ヒットテストは、今日から開発者が利用できるようになります。

ARCore の記録および再生 API

Google は、新しい Raw Depth API に加えて、ARCore で新しい記録および再生 API をデビューさせ、アプリ開発者がさまざまな AR エクスペリエンスをより柔軟にテストできるようにします。 新しい AR エクスペリエンスを構築する場合、開発者は多くの場合、特定の環境や場所で継続的にテストを行う必要があります。 新しい録画および再生 API を使用して、開発者は AR メタデータを含むビデオ映像を録画できるようになりました 深度や IMU モーション センサー データなどを取得し、それを使用して同じ環境を再作成し、さらに テスト中。 ここでのアイデアは、毎回新しい映像を撮影するのではなく、映像を一度録画し、それを他の AR 効果やエクスペリエンスをテストするためのテンプレートとして使用することです。 配車アプリの Didi-Rider は、API を使用してアプリ内で AR を利用したルート案内を構築およびテストし、研究開発費を 25% 節約し、開発サイクルを 6 か月短縮することができました。

エンドユーザーにとって、記録および再生 API により、キャプチャ後の AR などの新しい AR エクスペリエンスも可能になります。 これにより、ユーザーは以前に録画したビデオを AR アプリにフィードできるため、その場所に物理的にいてライブ カメラ セッションを行う必要がなくなります。 つまり、ユーザーは一度映像を撮影し、後から AR エフェクトを追加することができます。 ARCore Recording and Playback API は本日より開発者が利用できるようになりました。詳細については、次の URL をご覧ください。 このページ.