Google ARCore Depth API ช่วยให้นักพัฒนาสร้างแผนที่เชิงลึกผ่านอัลกอริธึมเชิงลึกจากการเคลื่อนไหว เพื่อเปิดใช้คุณลักษณะต่างๆ เช่น การบดบังบนอุปกรณ์กล้องตัวเดียว
Google ARCoreซึ่งเพิ่งเปลี่ยนชื่อเป็น บริการ Google Play สำหรับ AR เป็นความพยายามของ Google ในการขยาย Augmented Reality และประสบการณ์ไปยังอุปกรณ์ต่างๆ มากขึ้นเรื่อยๆ โดยไม่จำเป็นต้องใช้ฮาร์ดแวร์เฉพาะกลุ่ม ไม่เหมือนเมื่อก่อน โครงการแทงโก้. ขณะนี้ Google กำลังทำให้ ARCore สมจริงยิ่งขึ้นสำหรับอุปกรณ์ที่หลากหลายมากขึ้นผ่าน Depth API ใหม่
อุปกรณ์ภายใต้ Project Tango เช่น เลอโนโว Phab2 Proอาศัยฮาร์ดแวร์เฉพาะในรูปแบบของเซ็นเซอร์และกล้องเพื่อให้อุปกรณ์รับรู้ความลึกและพื้นที่ 3 มิติ อย่างไรก็ตาม ความต้องการฮาร์ดแวร์พิเศษหมายความว่าอุปกรณ์ต่างๆ จำเป็นต้องได้รับการสร้างขึ้นอย่างมีสติเพื่อประสบการณ์ AR ที่ดีที่สุด ซึ่งจะรบกวนประสบการณ์ผู้ใช้สมาร์ทโฟนในที่สุด ARCore พลิกสมการโดยขจัดความจำเป็นในการใช้ฮาร์ดแวร์เฉพาะออกไป จึงนำประสบการณ์ AR ที่ดีที่สุดมาสู่สมาร์ทโฟนที่ตอกย้ำประสบการณ์ผู้ใช้ไว้แล้ว
ขณะนี้ ARCore กำลังขยายความพร้อมใช้งานของประสบการณ์ AR ที่เหมาะสมที่สุดผ่าน ARCore Depth API ใหม่ API ใหม่นี้ปรับปรุงความสมจริงให้กับอุปกรณ์ที่มีกล้อง RGB ตัวเดียว เนื่องจากช่วยให้นักพัฒนาสามารถใช้อัลกอริธึมความลึกจากการเคลื่อนไหวของ Google เพื่อสร้างแผนที่ความลึก แผนที่เชิงลึกนี้สร้างขึ้นโดยการถ่ายภาพหลายภาพจากมุมที่แตกต่างกัน และเปรียบเทียบในขณะที่ผู้ใช้ขยับโทรศัพท์ โดยประมาณระยะห่างของทุกพิกเซล
ข้อมูลเชิงลึกมีประโยชน์สำหรับการเปิดใช้งานคุณลักษณะต่างๆ เช่น การบดเคี้ยว: ความสามารถของวัตถุดิจิทัลในการผสมผสานวัตถุในโลกแห่งความเป็นจริงได้อย่างแม่นยำ
ขณะนี้ Occlusion เป็นฟีเจอร์พร้อมใช้งานแล้วในอุปกรณ์ Android ที่รองรับ ARCore มากกว่า 200 ล้านเครื่อง โปรแกรมดูฉากซึ่งเป็นเครื่องมือสำหรับนักพัฒนาที่ขับเคลื่อน AR ในการค้นหา
นอกเหนือจากการบดบังข้อมูลเชิงลึก 3 มิติยังช่วยให้เกิดความเป็นไปได้อื่นๆ เช่น ฟิสิกส์ที่สมจริงมากขึ้น การวางแผนเส้นทาง การโต้ตอบกับพื้นผิว ฯลฯ Depth API ช่วยให้นักพัฒนาสามารถสร้างประสบการณ์ที่สามารถให้วัตถุกระเด้งและกระเด็นไปทั่วได้อย่างแม่นยำ พื้นผิวและพื้นผิวตลอดจนกลไกเกมแบบโต้ตอบใหม่ที่ช่วยให้ผู้เล่นหลบและซ่อนตัวอยู่หลังโลกแห่งความเป็นจริง วัตถุ
เนื่องจาก Depth API ไม่ได้ขึ้นอยู่กับฮาร์ดแวร์พิเศษ จึงสามารถทำงานได้กับอุปกรณ์หลากหลายประเภทมากขึ้น แต่แน่นอนว่าฮาร์ดแวร์ที่ดีกว่าจะปรับปรุงประสบการณ์ เซ็นเซอร์เพิ่มเติมสำหรับการทำแผนที่เชิงลึก เช่น เซ็นเซอร์เวลาบิน (ToF) จะช่วยให้นักพัฒนาปลดล็อกความสามารถใหม่ๆ เช่น การบดเคี้ยวแบบไดนามิก ความสามารถในการบดเคี้ยวด้านหลังวัตถุที่กำลังเคลื่อนที่
หากคุณต้องการลองใช้ Depth API ใหม่ Google ขอให้คุณกรอก แบบฟอร์มขอความร่วมมือได้ที่นี่. จากนั้น Google จะติดต่อผู้ทำงานร่วมกันที่รู้สึกว่าเหมาะสมที่สุดในการผลักดันเทคโนโลยีไปข้างหน้า
แหล่งที่มา: บล็อกนักพัฒนาซอฟต์แวร์ของ Google