Her er teknologien bag Google Pixel 4s Soli RADAR-bevægelser

click fraud protection

I et blogindlæg beskriver Google, hvordan Soli RADAR registrerer minutbevægelser af hænder for en berøringsfri interaktion med Google Pixle 4 og Pixel 4 XL.

Google introducerede det revolutionære "Motion Sense"-teknologi på Google Pixel 4 enheder. Funktionen bruger en lille Soli RADAR-chip, som registrerer håndbevægelser og bruger dem til at interagere med telefonen, selv uden at røre den. Pixel 4'erne Soli bevægelsesbevægelser kan bruges til skifte numre på en lang liste af musikapps, dæmp opkald og alarmer, eller aktiver skærmen, når du rækker ud efter din telefon. RADAR-teknologien blev konceptualiseret af Googles ATAP-team, og selvom vi så de første prototyper så tidligt som i 2014, er der stadig en vis usikkerhed om, hvordan Motion Sense-teknologien rent faktisk fungerer. For at uddybe det har Google udgivet en detaljeret blog om hvordan Soli-bevægelser fungerer.

Pixel 4 XDA-fora || Pixel 4 XL XDA-fora

I modsætning til typiske RADAR-systemer registrerer Soli bevægelse i stedet for at registrere den rumlige portionering af et fast objekt. Soli RADAR-chippen, som kun måler 5 mm x 6,5 mm x 0,873 mm, udsender et 60GHz-signal med frekvensmodulation (FM). Når dette signal rammer overfladen af ​​en hånd, reflekteres det tilbage til modtageren. Soli-chippen registrerer forskydninger mindre end en millimeter i brugerens hånd baseret på det reflekterede signal og bestemmer håndens gestus og hastigheden af ​​bevægelsen efter at have taget

Doppler effekt i betragtning.

En tidlig Soli-prototype fra Google ATAP

Soli-modtageren kortlægger indviklet energien modtaget i det reflekterede signal, og denne information plottes mod objektets hastighed, med forskellige indikatorer til at bestemme, om objektet bevæger sig tættere på signalet eller bevæger sig væk fra det. Den kan også måle objektets afstand fra sensoren. Afstanden og hastigheden af ​​den bevægelige kropsdel ​​eller hånd kan bruges til at estimere dens rumlige position i 3D. Google har også optimeret signalkæden for at forbedre signal-til-støj-forholdet og chippens strømeffektivitet.

For effektivt at tackle de mange signalrefleksioner og tegne meningsfulde mønstre ud af det, bruger Google maskinlæring. Disse ML-algoritmer er blevet trænet ved hjælp af TensorFlow ved hjælp af "millioner af bevægelser optaget fra tusindvis af Google-frivillige." Med Forhåndsvisning af Android 11-udvikler, var vi også vidne til forbedringer i Motion Sense's nøjagtighed på Google Pixel 4, og det samme kan forventes af fremtidige opdateringer.

Tidlig Soli-prototype vs den endelige RADAR-chip (længst til højre)

Google ATAP arbejdede tæt sammen med Googles Pixel og andre hardwaredesignteams for at sikre, at andre signaler ikke forstyrrer Solis arbejde. Dette sikrer, at signaler som lyd fra højttalerne ikke forvrænger eller hæmmer Pixel 4's Motion Sense-egenskaber. Ikke nok med det, den større udfordring var at reducere størrelsen af ​​apparatet, så det kan passe i panden på Pixel 4 og 4 XL.

Selvom dette er det første bemærkede tilfælde af en RADAR, der bruges på en forbrugerenhed, skal holdene bestræbe sig på at arbejde med teknologien i fremtiden – selvom der ikke er løfter om support til nogen enhed i fremtiden.


Kilde: Google AI-blog