Här är tekniken bakom Google Pixel 4:s Soli RADAR-gester

click fraud protection

I ett blogginlägg beskriver Google hur Soli RADAR upptäcker minuter av händers rörelser för en beröringsfri interaktion med Google Pixle 4 och Pixel 4 XL.

Google introducerade revolutionären "Motion Sense"-teknik på Google Pixel 4 enheter. Funktionen använder ett litet Soli RADAR-chip som upptäcker handgester och använder dem för att interagera med telefonen även utan att röra den. Pixel 4:s Soli motion gester kan användas till byta spår på en lång lista med musikappar, tysta samtal och larm, eller aktivera skärmen när du sträcker ut handen efter din telefon. RADAR-tekniken konceptualiserades av Googles ATAP-team och även om vi såg de första prototyperna så tidigt som 2014, finns det fortfarande en viss osäkerhet om hur Motion Sense-tekniken faktiskt fungerar. För att utveckla det har Google släppt en detaljerad blogg om hur Soli-gester fungerar.

Pixel 4 XDA-forum || Pixel 4 XL XDA-forum

Till skillnad från typiska RADAR-system detekterar Soli rörelse istället för att känna av den rumsliga portioneringen av ett fast föremål. Soli RADAR-chippet, som endast mäter 5 mm x 6,5 mm x 0,873 mm, avger en 60GHz-signal med frekvensmodulering (FM). När den signalen träffar ytan på en hand reflekteras den tillbaka till mottagaren. Soli-chippet upptäcker förskjutningar mindre än en millimeter i användarens hand baserat på den reflekterade signalen och bestämmer handens gest och rörelsens hastighet efter att ha tagit

Dopplereffekt i åtanke.

En tidig Soli-prototyp från Google ATAP

Soli-mottagaren kartlägger intrikat energin som tas emot i den reflekterade signalen och denna information plottas mot objektets hastighet, med olika indikatorer för att avgöra om objektet rör sig närmare signalen eller rör sig bort från Det. Den kan också mäta objektets avstånd från sensorn. Avståndet och hastigheten för den rörliga kroppsdelen eller handen kan användas för att uppskatta dess rumsliga position i 3D. Google har också optimerat signalkedjan för att förbättra signal-brusförhållandet och chipets effekteffektivitet.

För att effektivt hantera mångfalden av signalreflektioner och dra meningsfulla mönster ur dem använder Google maskininlärning. Dessa ML-algoritmer har tränats med TensorFlow med hjälp av "miljontals gester inspelade från tusentals Google-volontärer." Med Android 11 utvecklare förhandsvisning, bevittnade vi också förbättringar i Motion Senses noggrannhet på Google Pixel 4, och detsamma kan förväntas från framtida uppdateringar.

Tidig Soli-prototyp vs det sista RADAR-chippet (längst till höger)

Google ATAP samarbetade nära med Googles Pixel och andra hårdvarudesignteam för att säkerställa att andra signaler inte stör Solis arbete. Detta säkerställer att signaler som ljud från högtalarna inte förvränger eller hindrar Pixel 4:s Motion Sense-förmåga. Inte bara det, den större utmaningen var att minska storleken på apparaten så att den får plats i pannan på Pixel 4 och 4 XL.

Även om detta är den första noterade instansen av att en RADAR används på en konsumentenhet, ska teamen sträva efter att arbeta med tekniken i framtiden – även om det inte finns några löften om stöd för någon enhet i framtiden.


Källa: Google AI-blogg