Google Pixel 4 の Soli RADAR ジェスチャーを支える技術は次のとおりです

Google はブログ投稿の中で、Soli RADAR が Google Pixle 4 および Pixel 4 XL とのタッチレス操作のために数分間の手の動きを検出する方法について説明しています。

Google は革新的な製品を導入しました Google Pixel 4の「Motion Sense」テクノロジー デバイス。 この機能は小さな Soli RADAR チップを使用しており、手のジェスチャーを検出し、それを使用して携帯電話に触れなくても操作できます。 Pixel 4の ソリモーションジェスチャ に使用できます 音楽アプリの長いリストのトラックを変更する、電話やアラームを消音したり、携帯電話に手を伸ばしたときに画面をアクティブにしたりできます。 RADAR テクノロジーは Google の ATAP チームによって概念化され、2014 年には初期のプロトタイプが確認されましたが、Motion Sense テクノロジーが実際にどのように機能するかについてはまだ不確実性があります。 さらに詳しく説明するために、Google は Soli ジェスチャの動作に関する詳細なブログをリリースしました。

Pixel 4 XDA フォーラム || Pixel 4 XL XDA フォーラム

一般的なレーダー システムとは異なり、Soli は固体オブジェクトの空間部分を感知するのではなく、動きを検出します。 Soli RADAR チップは、わずか 5 mm x 6.5 mm x 0.873 mm で、周波数変調 (FM) を使用して 60 GHz の信号を放射します。 その信号が手の表面に当たると、反射して受信機に戻ります。 Soliチップは、反射信号に基づいてユーザーの手の1ミリメートル未満の変位を検出し、撮影後の手のジェスチャーと動きの速度を判定します。 ドップラー効果 考慮に入れてください。

Google ATAP による初期の Soli プロトタイプ

Soli 受信機は、反射信号で受信したエネルギーを複雑にマッピングし、この情報は、 オブジェクトの速度。オブジェクトが信号に近づいているか、信号から離れているかを判断するためのさまざまなインジケーターを使用します。 それ。 センサーから物体までの距離も測定できます。 移動する身体部分または手の距離と速度を使用して、その空間位置を 3D で推定できます。 Google はまた、信号対雑音比とチップの電力効率を向上させるために信号チェーンを最適化しました。

多数の信号反射に効果的に取り組み、そこから意味のあるパターンを引き出すために、Google は機械学習を使用しています。 これらの ML アルゴリズムは、TensorFlow を使用して「」によってトレーニングされています。何千人もの Google ボランティアから記録された何百万ものジェスチャー。" とともに Android 11 開発者プレビュー、私たちも目撃しました Motion Senseの精度の向上 Google Pixel 4 でも同様であり、今後のアップデートでも同様のことが予想されます。

初期の Soli プロトタイプと最終的な RADAR チップ (右端)

Google ATAP は、Google の Pixel およびその他のハードウェア設計チームと緊密に連携して、他の信号が Soli の動作に干渉しないようにしました。 これにより、スピーカーからの音声などの信号が歪んだり、Pixel 4 の Motion Sense 機能を妨げたりすることがなくなります。 それだけでなく、より大きな課題は、Pixel 4 と 4 XL の額に収まるように装置のサイズを小さくすることでした。

これは消費者向けデバイスでレーダーが使用された最初の注目すべき例ですが、チームは次のことに努める必要があります。 将来的にはテクノロジーの開発に取り組んでいきますが、将来的にいかなるデバイスもサポートするという約束はありません。


ソース: Google AI ブログ