Google แสดงแนวคิดสำหรับจอแสดงผลอัจฉริยะ "อัจฉริยะทางสังคม" กับ Soli

Google ATAP เผยแพร่วิดีโอเมื่อวันอังคารที่แสดงการใช้งานเซ็นเซอร์ Soli ในอนาคตที่เป็นไปได้ เช่น การตรวจจับการเคลื่อนไหวของศีรษะ

กลุ่มเทคโนโลยีและโครงการขั้นสูงของ Google หรือที่เรียกว่า ATAP เป็นหนึ่งในกลุ่มการวิจัยและพัฒนาหลักภายใน Google ATAP เดิมพัฒนาเซ็นเซอร์ Soli ซึ่งจดจำท่าทางโดยใช้เรดาร์ และต่อมารวมอยู่ในซีรีส์ Pixel 4 และ Google Nest Hub Max ตอนนี้เรามาดูกันว่า ATAP กำลังทำงานอะไรอยู่บ้าง ต้องขอบคุณวิดีโอ YouTube ใหม่

ขณะนี้ Google ATAP กำลังทำงานในซีรีส์สารคดีชื่อ "In the Lab with Google ATAP" ซึ่งกลุ่มนี้จะแสดงงานวิจัยล่าสุดของตน วิดีโอแรกสำรวจ "วิธีการใช้การผสมผสานระหว่างการตรวจจับแบบใหม่และเทคนิคการเรียนรู้ของเครื่องเพื่อจับภาพ การเคลื่อนไหวนิ้วของเราในระดับมิลลิเมตรเพื่อสร้างท่าทางมือที่แสดงออกและละเอียดอ่อนเพื่อโต้ตอบกับความหลากหลาย สินค้า."

\ร\n https://www.youtube.com/watch? v=r-eh2K4HCzI\r\n

พูดง่ายๆ ก็คือ ATAP ต้องการใช้เซ็นเซอร์ Soli เพื่อตรวจจับการเคลื่อนไหวของศีรษะที่ละเอียดอ่อน วิดีโอดังกล่าวจะแสดงจอแสดงผลอัจฉริยะที่จะหยุดวิดีโอชั่วคราวเมื่อมีคนเดินจากไป หรืออัปเดตหน้าจอด้วยข้อมูลสภาพอากาศเพิ่มเติมเมื่อมีคนหันมามองอุปกรณ์ Google กล่าวว่าเทคโนโลยีการเรียนรู้ของเครื่องสามารถ "ประมาณการวางแนวของศีรษะ" ซึ่งเปิดประตูสู่การโต้ตอบที่น่าประทับใจยิ่งขึ้น

ไม่มีการบอกว่าเทคโนโลยีใดๆ นี้จะปรากฏในผลิตภัณฑ์ที่มีจำหน่ายทั่วไปเมื่อใดหรือหรือไม่ ผลิตภัณฑ์เดียวในปัจจุบันของ Google ที่มีเซ็นเซอร์ Soli คือ Nest Hub Max ซึ่งใช้ Soli สำหรับการติดตามวัตถุและการตรวจจับใบหน้า Pixel 4 และ Pixel 4 XL เป็นโทรศัพท์รุ่นเดียวที่มี Soli โดย Google ได้ถอดเซ็นเซอร์ออกด้วย Pixel 5 นิ้ว ปี 2020 เพื่อลดต้นทุนการผลิต (และกรอบ) และ Pixel 6 และ Pixel 6 Pro ก็ยังไม่มี โซลิ.

ATAP ยังเป็นกลุ่มที่อยู่เบื้องหลัง Project Ara ซึ่งเป็นความพยายามในช่วงแรกๆ ของการออกแบบสมาร์ทโฟนแบบโมดูลาร์ที่ปรับแต่งได้ Project Ara มีเป้าหมายเพื่อสร้างโมดูลสำหรับกล้อง อุปกรณ์จัดเก็บข้อมูล จอแสดงผล และส่วนประกอบอื่นๆ ที่สามารถสลับและอัปเกรดได้ตามต้องการ

ทาง:9to5Google