Voici la technologie derrière les gestes Soli RADAR de Google Pixel 4

click fraud protection

Dans un article de blog, Google décrit comment le Soli RADAR détecte quelques minutes de mouvements des mains pour une interaction sans contact avec Google Pixle 4 et Pixel 4 XL.

Google a présenté le révolutionnaire Technologie « Motion Sense » sur le Google Pixel 4 dispositifs. La fonctionnalité utilise une petite puce Soli RADAR qui détecte les gestes de la main et les utilise pour interagir avec le téléphone même sans le toucher. Les Pixel 4 Gestes de mouvement soli peut être utilisé pour changer de piste sur une longue liste d'applications musicales, coupez les appels et les alarmes, ou activez l'écran lorsque vous saisissez votre téléphone. La technologie RADAR a été conceptualisée par l'équipe ATAP de Google et, même si nous avons vu les premiers prototypes dès 2014, il existe encore une certaine incertitude quant au fonctionnement réel de la technologie Motion Sense. Pour en parler, Google a publié un blog détaillé sur le fonctionnement des gestes Soli.

Forums Pixel 4 XDA || Forums Pixel 4 XL XDA

Contrairement aux systèmes RADAR classiques, Soli détecte le mouvement au lieu de détecter la répartition spatiale d'un objet solide. La puce Soli RADAR, qui mesure seulement 5 mm x 6,5 mm x 0,873 mm, émet un signal de 60 GHz avec modulation de fréquence (FM). Lorsque ce signal frappe la surface d’une main, il est renvoyé vers le récepteur. La puce Soli détecte les déplacements inférieurs à un millimètre dans la main de l'utilisateur sur la base du signal réfléchi et détermine le geste de la main et la vitesse du mouvement après la prise. Effet Doppler en compte.

Un premier prototype Soli par Google ATAP

Le récepteur Soli cartographie de manière complexe l'énergie reçue dans le signal réfléchi et cette information est comparée au vitesse de l'objet, avec différents indicateurs pour déterminer si l'objet se rapproche du signal ou s'en éloigne il. Il peut également mesurer la distance entre l'objet et le capteur. La distance et la vitesse de la partie du corps ou de la main en mouvement peuvent être utilisées pour estimer sa position spatiale en 3D. Google a également optimisé la chaîne de signal pour améliorer le rapport signal/bruit et l'efficacité énergétique de la puce.

Pour s'attaquer efficacement à la multitude de réflexions de signaux et en tirer des modèles significatifs, Google utilise l'apprentissage automatique. Ces algorithmes ML ont été entraînés à l'aide de TensorFlow au moyen de "des millions de gestes enregistrés par des milliers de bénévoles de Google." Avec le Aperçu du développeur Android 11, nous avons également été témoins améliorations de la précision de Motion Sense sur Google Pixel 4, et la même chose peut être attendue des futures mises à jour.

Premier prototype Soli vs la puce RADAR finale (à l'extrême droite)

Google ATAP a travaillé en étroite collaboration avec Pixel de Google et d'autres équipes de conception matérielle pour garantir que d'autres signaux n'interfèrent pas avec le fonctionnement de Soli. Cela garantit que les signaux tels que l'audio des haut-parleurs ne déforment pas ou n'entravent pas les capacités Motion Sense du Pixel 4. De plus, le plus grand défi était de réduire la taille de l'appareil afin qu'il puisse tenir dans le front du Pixel 4 et du 4 XL.

Bien qu'il s'agisse du premier cas remarqué d'utilisation d'un RADAR sur un appareil grand public, les équipes s'efforceront de travailler sur la technologie à l’avenir – bien qu’il n’y ait aucune promesse de prise en charge d’un quelconque appareil à l’avenir.


Source: Blog Google sur l'IA