In einem Blogbeitrag beschreibt Google, wie das Soli RADAR winzige Handbewegungen erkennt und so eine berührungslose Interaktion mit Google Pixle 4 und Pixel 4 XL ermöglicht.
Google hat das Revolutionäre eingeführt „Motion Sense“-Technologie auf dem Google Pixel 4 Geräte. Die Funktion nutzt einen winzigen Soli-RADAR-Chip, der Handgesten erkennt und diese für die Interaktion mit dem Telefon nutzt, auch ohne es zu berühren. Die Pixel 4 Soli-Motion-Gesten kann benutzt werden um Ändern Sie Titel in einer langen Liste von Musik-Apps, schalten Sie Anrufe und Alarme stumm oder aktivieren Sie den Bildschirm, wenn Sie nach Ihrem Telefon greifen. Die RADAR-Technologie wurde vom ATAP-Team von Google konzipiert und obwohl wir bereits 2014 erste Prototypen sahen, besteht immer noch eine gewisse Unsicherheit darüber, wie die Motion Sense-Technologie tatsächlich funktioniert. Um dies näher zu erläutern, hat Google einen ausführlichen Blog über die Funktionsweise von Soli-Gesten veröffentlicht.
Pixel 4 XDA-Foren || Pixel 4 XL XDA-Foren
Im Gegensatz zu typischen RADAR-Systemen erkennt Soli Bewegungen, anstatt die räumliche Aufteilung eines festen Objekts zu erfassen. Der nur 5 mm x 6,5 mm x 0,873 mm große Soli RADAR-Chip sendet ein 60-GHz-Signal mit Frequenzmodulation (FM). Wenn dieses Signal auf die Oberfläche einer Hand trifft, wird es zum Empfänger zurückreflektiert. Der Soli-Chip erkennt anhand des reflektierten Signals Verschiebungen in der Hand des Nutzers, die kleiner als ein Millimeter sind, und ermittelt nach der Aufnahme die Geste der Hand und die Geschwindigkeit der Bewegung Doppler-Effekt berücksichtigen.
Ein früher Soli-Prototyp von Google ATAP
Der Soli-Empfänger bildet die im reflektierten Signal empfangene Energie detailliert ab und diese Informationen werden gegen die Energie aufgetragen Die Geschwindigkeit des Objekts mit verschiedenen Indikatoren, um festzustellen, ob sich das Objekt dem Signal nähert oder sich davon entfernt Es. Es kann auch die Entfernung des Objekts vom Sensor messen. Aus der Distanz und der Geschwindigkeit des bewegten Körperteils bzw. der Hand kann dessen räumliche Position im 3D abgeschätzt werden. Google hat außerdem die Signalkette optimiert, um das Signal-Rausch-Verhältnis und die Energieeffizienz des Chips zu verbessern.
Um der Vielzahl an Signalreflexionen effektiv zu begegnen und daraus sinnvolle Muster zu ziehen, nutzt Google maschinelles Lernen. Diese ML-Algorithmen wurden mit TensorFlow trainiert mittels „Millionen von Gesten, die von Tausenden von Google-Freiwilligen aufgezeichnet wurden." Mit dem Entwicklervorschau für Android 11, haben wir auch miterlebt Verbesserungen der Genauigkeit von Motion Sense auf Google Pixel 4, und das Gleiche ist auch von zukünftigen Updates zu erwarten.
Google ATAP arbeitete eng mit Googles Pixel und anderen Hardware-Designteams zusammen, um sicherzustellen, dass andere Signale die Arbeit von Soli nicht beeinträchtigen. Dadurch wird sichergestellt, dass Signale wie Audio von den Lautsprechern die Motion Sense-Funktionen des Pixel 4 nicht verzerren oder beeinträchtigen. Darüber hinaus bestand die größere Herausforderung darin, die Größe des Geräts zu reduzieren, damit es in die Stirn des Pixel 4 und des 4 XL passt.
Obwohl dies der erste bekannte Fall ist, bei dem ein RADAR auf einem Verbrauchergerät verwendet wird, werden sich die Teams darum bemühen Wir werden in Zukunft an der Technologie arbeiten – obwohl es keine Zusagen für die Unterstützung eines Geräts in der Zukunft gibt.
Quelle: Google AI-Blog