Ecco la tecnologia alla base dei gesti Soli RADAR di Google Pixel 4

click fraud protection

In un post sul blog, Google descrive come Soli RADAR rileva minuti movimenti delle mani per un'interazione senza contatto con Google Pixle 4 e Pixel 4 XL.

Google ha introdotto il rivoluzionario Tecnologia "Motion Sense" su Google Pixel 4 dispositivi. La funzione utilizza un minuscolo chip Soli RADAR che rileva i gesti delle mani e li utilizza per interagire con il telefono anche senza toccarlo. I Pixel 4 Gesti di movimento soli può essere usato per cambia traccia in un lungo elenco di app musicali, silenzia chiamate e sveglie oppure attiva lo schermo quando prendi il telefono. La tecnologia RADAR è stata concettualizzata dal team ATAP di Google e sebbene abbiamo visto i primi prototipi già nel 2014, c'è ancora qualche incertezza su come funziona effettivamente la tecnologia Motion Sense. Per approfondire questo argomento, Google ha pubblicato un blog dettagliato sul funzionamento dei gesti Soli.

Forum XDA di Pixel 4 || Forum Pixel 4 XL XDA

A differenza dei tipici sistemi RADAR, Soli rileva il movimento invece di percepire la suddivisione spaziale di un oggetto solido. Il chip Soli RADAR, che misura solo 5 mm x 6,5 mm x 0,873 mm, emette un segnale a 60 GHz con modulazione di frequenza (FM). Quando il segnale colpisce la superficie di una mano, viene riflesso al ricevitore. Il chip Soli rileva spostamenti inferiori a un millimetro nella mano dell'utente in base al segnale riflesso e determina il gesto della mano e la velocità del movimento dopo aver preso

Effetto Doppler in considerazione.

Uno dei primi prototipi di Soli di Google ATAP

Il ricevitore Soli mappa in modo complesso l'energia ricevuta nel segnale riflesso e questa informazione viene tracciata rispetto al segnale velocità dell'oggetto, con diversi indicatori per determinare se l'oggetto si sta avvicinando al segnale o allontanandosi da esso Esso. Può anche misurare la distanza dell'oggetto dal sensore. La distanza e la velocità della parte del corpo o della mano in movimento possono essere utilizzate per stimare la sua posizione spaziale in 3D. Google ha inoltre ottimizzato la catena del segnale per migliorare il rapporto segnale/rumore e l'efficienza energetica del chip.

Per affrontare in modo efficace la moltitudine di riflessioni del segnale e trarne modelli significativi, Google utilizza l’apprendimento automatico. Questi algoritmi ML sono stati addestrati utilizzando TensorFlow mediante "milioni di gesti registrati da migliaia di volontari Google." Con il Anteprima per sviluppatori Android 11, abbiamo anche assistito miglioramenti nella precisione di Motion Sense su Google Pixel 4, e lo stesso ci si può aspettare dai futuri aggiornamenti.

Il primo prototipo di Soli rispetto al chip RADAR finale (più a destra)

Google ATAP ha lavorato a stretto contatto con Pixel di Google e altri team di progettazione hardware per garantire che altri segnali non interferiscano con il funzionamento di Soli. Ciò garantisce che i segnali come l'audio proveniente dagli altoparlanti non distorcano o ostacolino le capacità Motion Sense di Pixel 4. Non solo, la sfida più grande è stata ridurre le dimensioni dell'apparecchio in modo che potesse adattarsi alla parte anteriore del Pixel 4 e del 4 XL.

Sebbene questo sia il primo caso noto di utilizzo di un RADAR su un dispositivo consumer, i team si impegneranno a farlo lavorerà sulla tecnologia in futuro, anche se non ci sono promesse di supporto per alcun dispositivo in futuro.


Fonte: Blog sull'intelligenza artificiale di Google