블로그 게시물에서 Google은 Soli RADAR가 Google Pixle 4 및 Pixel 4 XL과의 터치 없는 상호 작용을 위해 손의 미세한 움직임을 감지하는 방법을 설명합니다.
Google은 혁신적인 제품을 선보였습니다. Google Pixel 4의 'Motion Sense' 기술 장치. 이 기능은 손 동작을 감지하고 이를 사용하여 전화기를 건드리지 않고도 전화기와 상호 작용하는 작은 Soli RADAR 칩을 사용합니다. 픽셀 4 솔리 모션 제스처 에 익숙해질 수 있다 수많은 음악 앱 목록에서 트랙 변경, 전화 및 알람을 무음으로 설정하거나 휴대전화에 손을 뻗을 때 화면을 활성화하세요. RADAR 기술은 Google의 ATAP 팀에 의해 개념화되었으며 2014년에 초기 프로토타입을 보았지만 Motion Sense 기술이 실제로 어떻게 작동하는지에 대해서는 여전히 불확실성이 있습니다. 이에 대해 자세히 설명하기 위해 Google은 Soli 제스처 작동에 대한 자세한 블로그를 공개했습니다.
Pixel 4 XDA 포럼 || 픽셀 4 XL XDA 포럼
일반적인 RADAR 시스템과 달리 Soli는 고체 물체의 공간적 분할을 감지하는 대신 동작을 감지합니다. 크기가 5mm x 6.5mm x 0.873mm에 불과한 Soli RADAR 칩은 주파수 변조(FM)를 통해 60GHz 신호를 방출합니다. 해당 신호가 손 표면에 닿으면 수신기로 다시 반사됩니다. 솔리칩은 반사된 신호를 바탕으로 사용자 손의 1밀리미터 이하의 작은 변위를 감지해 촬영 후 손의 제스처와 움직임의 속도를 판단한다. 도플러 효과 계정에.
Google ATAP의 초기 Soli 프로토타입
Soli 수신기는 반사된 신호에서 수신된 에너지를 복잡하게 매핑하고 이 정보는 물체가 신호에 더 가까이 이동하는지 또는 신호에서 멀어지는지 여부를 결정하는 다양한 표시기를 사용하는 물체의 속도 그것. 센서로부터 물체까지의 거리도 측정할 수 있습니다. 움직이는 신체 부위나 손의 거리와 속도를 사용하여 3D 공간 위치를 추정할 수 있습니다. 또한 Google은 신호 대 잡음비와 칩의 전력 효율성을 개선하기 위해 신호 체인을 최적화했습니다.
수많은 신호 반사를 효과적으로 처리하고 그로부터 의미 있는 패턴을 도출하기 위해 Google은 기계 학습을 사용합니다. 이러한 ML 알고리즘은 TensorFlow를 사용하여 학습되었습니다.수천 명의 Google 자원봉사자가 녹음한 수백만 개의 동작." 와 더불어 Android 11 개발자 미리보기, 우리도 목격했습니다 Motion Sense의 정확도 향상 Google Pixel 4에서도 마찬가지이며 향후 업데이트에서도 마찬가지입니다.
Google ATAP는 Google의 Pixel 및 기타 하드웨어 설계 팀과 긴밀히 협력하여 다른 신호가 Soli의 작업을 방해하지 않도록 했습니다. 이렇게 하면 스피커의 오디오와 같은 신호가 Pixel 4의 Motion Sense 기능을 왜곡하거나 방해하지 않습니다. 뿐만 아니라 더 큰 과제는 Pixel 4와 4 XL의 이마에 맞도록 장치 크기를 줄이는 것이 었습니다.
이것은 소비자 장치에서 사용되는 RADAR의 첫 번째 사례이지만 팀은 다음을 위해 노력해야 합니다. 미래에 기술을 개발하기 위해 노력합니다. 하지만 미래에 어떤 장치에 대한 지원을 약속할 수는 없습니다.
원천: 구글 AI 블로그