W poście na blogu Google opisuje, jak Soli RADAR wykrywa minutowe ruchy dłoni w celu bezdotykowej interakcji z Google Pixle 4 i Pixel 4 XL.
Google wprowadził rewolucję Technologia „Motion Sense” w Google Pixel 4 urządzenia. Funkcja wykorzystuje niewielki chip Soli RADAR, który wykrywa gesty dłoni i wykorzystuje je do interakcji z telefonem nawet bez jego dotykania. Pixel 4 Samodzielne gesty ruchowe może być użyte do zmieniać utwory na długiej liście aplikacji muzycznych, wyciszaj połączenia i alarmy lub aktywuj ekran, gdy sięgasz po telefon. Koncepcja technologii RADAR została opracowana przez zespół ATAP firmy Google i chociaż pierwsze prototypy widzieliśmy już w 2014 r., nadal istnieje niepewność co do faktycznego działania technologii Motion Sense. Aby to rozwinąć, Google opublikował szczegółowy blog na temat działania gestów Soli.
Fora XDA dotyczące Pixela 4 || Fora XDA dotyczące Pixela 4 XL
W przeciwieństwie do typowych systemów radarowych, Soli wykrywa ruch zamiast wyczuwać przestrzenny podział obiektu stałego. Układ Soli RADAR o wymiarach zaledwie 5 mm x 6,5 mm x 0,873 mm emituje sygnał o częstotliwości 60 GHz z modulacją częstotliwości (FM). Kiedy sygnał ten dotrze do powierzchni dłoni, zostaje odbity z powrotem do odbiornika. Chip Soli wykrywa przemieszczenia dłoni użytkownika mniejsze niż milimetr na podstawie odbitego sygnału i określa gest ręki oraz prędkość ruchu po wykonaniu
Efekt Dopplera na konto.Wczesny prototyp Soli autorstwa Google ATAP
Odbiornik Soli w misterny sposób odwzorowuje energię otrzymaną w odbitym sygnale, a informacja ta jest wykreślana w funkcji prędkość obiektu, z różnymi wskaźnikami pozwalającymi określić, czy obiekt zbliża się do sygnału, czy oddala To. Może także mierzyć odległość obiektu od czujnika. Odległość i prędkość poruszającej się części ciała lub dłoni można wykorzystać do oszacowania jej położenia przestrzennego w 3D. Google zoptymalizował również łańcuch sygnałowy, aby poprawić stosunek sygnału do szumu i wydajność energetyczną chipa.
Aby skutecznie stawić czoła mnogości odbić sygnałów i wyciągnąć z nich znaczące wzorce, Google korzysta z uczenia maszynowego. Te algorytmy ML zostały przeszkolone przy użyciu TensorFlow za pomocą „miliony gestów zarejestrowanych przez tysiące wolontariuszy Google.„Z Podgląd programisty Androida 11, my też byliśmy świadkami ulepszenia dokładności Motion Sense na Google Pixel 4 i tego samego można się spodziewać po przyszłych aktualizacjach.
Google ATAP ściśle współpracował z Google Pixel i innymi zespołami projektowymi sprzętu, aby mieć pewność, że inne sygnały nie zakłócają działania Soli. Dzięki temu sygnały takie jak dźwięk z głośników nie zniekształcają ani nie zakłócają funkcji Motion Sense Pixela 4. Mało tego, większym wyzwaniem było zmniejszenie rozmiaru aparatu, tak aby zmieścił się na czole Pixela 4 i 4 XL.
Chociaż jest to pierwszy odnotowany przypadek użycia radaru na urządzeniu konsumenckim, zespoły dołożą wszelkich starań, aby to zrobić pracować nad technologią w przyszłości – chociaż nie obiecuje się wsparcia dla żadnego urządzenia w przyszłości.
Źródło: Blog Google poświęcony sztucznej inteligencji