I et blogginnlegg beskriver Google hvordan Soli RADAR oppdager minuttbevegelser av hender for en berøringsfri interaksjon med Google Pixle 4 og Pixel 4 XL.
Google introduserte det revolusjonære "Motion Sense"-teknologi på Google Pixel 4 enheter. Funksjonen bruker en liten Soli RADAR-brikke som oppdager håndbevegelser og bruker dem til å samhandle med telefonen selv uten å berøre den. Pixel 4-ene Soli-bevegelsesbevegelser kan brukes til endre spor på en lang liste med musikkapper, demp samtaler og alarmer, eller aktiver skjermen når du strekker deg etter telefonen. RADAR-teknologien ble konseptualisert av Googles ATAP-team, og selv om vi så innledende prototyper så tidlig som i 2014, er det fortsatt noe usikkerhet om hvordan Motion Sense-teknologien faktisk fungerer. For å utdype det har Google gitt ut en detaljert blogg om hvordan Soli-bevegelser fungerer.
Pixel 4 XDA-fora || Pixel 4 XL XDA-fora
I motsetning til typiske RADAR-systemer, oppdager Soli bevegelse i stedet for å registrere den romlige porsjonen til et solid objekt. Soli RADAR-brikken, som kun måler 5 mm x 6,5 mm x 0,873 mm, sender ut et 60GHz-signal med frekvensmodulasjon (FM). Når dette signalet treffer overflaten av en hånd, reflekteres det tilbake til mottakeren. Soli-brikken oppdager forskyvninger mindre enn en millimeter i brukerens hånd basert på det reflekterte signalet og bestemmer håndens gest og hastigheten på bevegelsen etter å ha tatt
Doppler effekten i betraktning.En tidlig Soli-prototype av Google ATAP
Soli-mottakeren kartlegger intrikat energien som mottas i det reflekterte signalet, og denne informasjonen plottes mot objektets hastighet, med forskjellige indikatorer for å bestemme om objektet beveger seg nærmere signalet eller beveger seg bort fra den. Den kan også måle avstanden til objektet fra sensoren. Avstanden og hastigheten til den bevegelige kroppsdelen eller hånden kan brukes til å estimere dens romlige posisjon i 3D. Google har også optimalisert signalkjeden for å forbedre signal-til-støy-forholdet og brikkens strømeffektivitet.
For å effektivt takle mangfoldet av signalrefleksjoner og tegne meningsfylte mønstre ut av det, bruker Google maskinlæring. Disse ML-algoritmene har blitt trent ved hjelp av TensorFlow ved hjelp av "millioner av gester registrert fra tusenvis av Google-frivillige." Med Android 11-utviklerforhåndsvisning, var vi også vitne til forbedringer i Motion Sense sin nøyaktighet på Google Pixel 4, og det samme kan forventes fra fremtidige oppdateringer.
Google ATAP jobbet tett med Googles Pixel og andre maskinvaredesignteam for å sikre at andre signaler ikke forstyrrer Solis arbeid. Dette sikrer at signaler som lyd fra høyttalerne ikke forvrenger eller hindrer Pixel 4s Motion Sense-evner. Ikke bare det, den største utfordringen var å redusere størrelsen på apparatet slik at det kan passe i pannen på Pixel 4 og 4 XL.
Selv om dette er den første bemerkede forekomsten av en RADAR som brukes på en forbrukerenhet, skal teamene bestrebe seg på å arbeid med teknologien i fremtiden – selv om det ikke er løfter om støtte for noen enhet i fremtiden.
Kilde: Google AI-blogg