Aquí está la tecnología detrás de los gestos Soli RADAR de Google Pixel 4

click fraud protection

En una publicación de blog, Google describe cómo Soli RADAR detecta movimientos minuciosos de las manos para una interacción sin contacto con Google Pixle 4 y Pixel 4 XL.

Google presentó el revolucionario Tecnología "Motion Sense" en el Google Pixel 4 dispositivos. La función utiliza un pequeño chip Soli RADAR que detecta los gestos de las manos y los utiliza para interactuar con el teléfono incluso sin tocarlo. Los píxeles 4 Gestos de movimiento de Soli puede ser usado para cambiar pistas en una larga lista de aplicaciones de música, silencia llamadas y alarmas, o activa la pantalla cuando buscas tu teléfono. La tecnología RADAR fue conceptualizada por el equipo ATAP de Google y, aunque vimos prototipos iniciales ya en 2014, todavía existe cierta incertidumbre sobre cómo funciona realmente la tecnología Motion Sense. Para profundizar en ello, Google ha publicado un blog detallado sobre el funcionamiento de los gestos de Soli.

Foros de Pixel 4 XDA || Pixel 4 XL Foros de XDA

A diferencia de los sistemas RADAR típicos, Soli detecta movimiento en lugar de detectar la división espacial de un objeto sólido. El chip Soli RADAR, que mide sólo 5 mm x 6,5 mm x 0,873 mm, emite una señal de 60GHz con modulación de frecuencia (FM). Cuando esa señal golpea la superficie de una mano, se refleja de regreso al receptor. El chip Soli detecta desplazamientos inferiores a un milímetro en la mano del usuario basándose en la señal reflejada y determina el gesto de la mano y la velocidad del movimiento después de tomar

Efecto Doppler en cuenta.

Uno de los primeros prototipos de Soli de Google ATAP

El receptor Soli mapea intrincadamente la energía recibida en la señal reflejada y esta información se traza contra la La velocidad del objeto, con diferentes indicadores para determinar si el objeto se está acercando a la señal o alejándose de ella. él. También puede medir la distancia del objeto al sensor. La distancia y la velocidad de la parte del cuerpo en movimiento o de la mano se pueden utilizar para estimar su posición espacial en 3D. Google también ha optimizado la cadena de señal para mejorar la relación señal-ruido y la eficiencia energética del chip.

Para abordar eficazmente la multitud de reflejos de señales y extraer patrones significativos de ellos, Google utiliza el aprendizaje automático. Estos algoritmos de ML han sido entrenados utilizando TensorFlow mediante "millones de gestos grabados por miles de voluntarios de Google." Con el Vista previa para desarrolladores de Android 11, también fuimos testigos mejoras en la precisión de Motion Sense en Google Pixel 4, y se puede esperar lo mismo de futuras actualizaciones.

Prototipo inicial de Soli frente al chip RADAR final (más a la derecha)

Google ATAP trabajó en estrecha colaboración con Pixel de Google y otros equipos de diseño de hardware para garantizar que otras señales no interfieran con el funcionamiento de Soli. Esto garantiza que las señales, como el audio de los altavoces, no se distorsionen ni impidan las capacidades de detección de movimiento del Pixel 4. No sólo eso, el mayor desafío fue reducir el tamaño del aparato para que pueda caber en la frente del Pixel 4 y el 4 XL.

Si bien este es el primer caso observado en el que se utiliza un RADAR en un dispositivo de consumo, los equipos se esforzarán por trabajar en la tecnología en el futuro, aunque no hay promesas de soporte para ningún dispositivo en el futuro.


Fuente: Blog de IA de Google