Ось технологія, що лежить в основі жестів Soli RADAR Google Pixel 4

У дописі в блозі Google описує, як Soli RADAR виявляє хвилинні рухи рук для безконтактної взаємодії з Google Pixle 4 і Pixel 4 XL.

Google представив революціонера Технологія «Motion Sense» на Google Pixel 4 пристроїв. Ця функція використовує крихітний чіп Soli RADAR, який розпізнає жести рук і використовує їх для взаємодії з телефоном, навіть не торкаючись його. Pixel 4 Солі рухові жести можна використовувати змінювати треки в довгому списку музичних програм, вимкнути звук дзвінків і будильників або активувати екран, коли ви берете телефон. Технологія RADAR була розроблена командою Google ATAP, і хоча ми бачили перші прототипи ще в 2014 році, все ще є деяка невизначеність щодо того, як насправді працює технологія Motion Sense. Щоб розповісти про це, Google випустив детальний блог про роботу жестів Soli.

Форуми Pixel 4 XDA || Форуми Pixel 4 XL XDA

На відміну від типових систем RADAR, Soli виявляє рух замість визначення просторової частини твердого об’єкта. Чіп Soli RADAR, який має розміри лише 5 мм x 6,5 мм x 0,873 мм, випромінює сигнал 60 ГГц із частотною модуляцією (FM). Коли цей сигнал потрапляє на поверхню руки, він відбивається назад до приймача. Чіп Soli виявляє зміщення руки користувача менше міліметра на основі відбитого сигналу та визначає жест руки та швидкість руху після взяття

Ефект Доплера в обліковому записі.

Ранній прототип Soli від Google ATAP

Приймач Soli складно відображає енергію, отриману у відбитому сигналі, і ця інформація наноситься на графік швидкість об’єкта з різними індикаторами, щоб визначити, наближається об’єкт до сигналу чи віддаляється від нього це. Він також може вимірювати відстань об'єкта від датчика. Відстань і швидкість рухомої частини тіла або руки можна використовувати для оцінки їх просторового положення в 3D. Google також оптимізував сигнальний ланцюг, щоб покращити співвідношення сигнал/шум і енергоефективність чіпа.

Щоб ефективно боротися з безліччю відображень сигналу та виводити з нього значущі моделі, Google використовує машинне навчання. Ці алгоритми ML були навчені за допомогою TensorFlow за допомогою "мільйони жестів, записаних тисячами волонтерів Google.Попередній перегляд Android 11 для розробників, ми також були свідками покращення точності Motion Sense на Google Pixel 4, і того ж можна очікувати від майбутніх оновлень.

Ранній прототип Soli проти остаточного чіпа RADAR (крайній праворуч)

Google ATAP тісно співпрацював із Google Pixel та іншими командами розробників апаратного забезпечення, щоб забезпечити, щоб інші сигнали не заважали роботі Soli. Це гарантує, що такі сигнали, як аудіо з динаміків, не спотворюють і не перешкоджають функціям Motion Sense Pixel 4. Мало того, більшою проблемою було зменшити розмір пристрою, щоб він міг поміститися на лобі Pixel 4 і 4 XL.

Незважаючи на те, що це перший зареєстрований випадок використання RADAR на споживчому пристрої, команди повинні докладати зусиль, щоб працювати над технологією в майбутньому – хоча немає обіцянок щодо підтримки будь-якого пристрою в майбутньому.


Джерело: Блог Google AI