ที่ Google I/O 2021 Google จะประกาศการอัปเดตที่โดดเด่นบางประการสำหรับแพลตฟอร์ม ARCore เพื่อช่วยให้นักพัฒนาสร้างประสบการณ์ AR ที่สมจริงยิ่งขึ้น
ที่ Google I/O 2021 Google จะประกาศการอัปเกรดที่สำคัญบางประการสำหรับ ARCore ซึ่งเป็นแพลตฟอร์มความเป็นจริงเสริมของบริษัทที่ขับเคลื่อนสมาร์ทโฟน Android มากกว่า 850 ล้านเครื่องทั่วโลก ต่างจาก Project Tango ซึ่งต้องใช้ฮาร์ดแวร์พิเศษ ARCore อาศัยฮาร์ดแวร์ที่มีอยู่ในโทรศัพท์ของคุณและ เซ็นเซอร์เพื่อรวบรวมข้อมูลเกี่ยวกับความลึก การติดตามการเคลื่อนไหว และการประมาณแสง เพื่อช่วยนักพัฒนาสร้าง AR แบบโต้ตอบ ประสบการณ์
นับตั้งแต่เปิดตัว Google ได้ปรับปรุงชุดคุณลักษณะและความสามารถของ ARCore อย่างต่อเนื่อง ขีดจำกัดของสิ่งที่นักพัฒนาแอป AR สามารถทำได้ด้วยฮาร์ดแวร์ที่มีอยู่ของ Android สมาร์ทโฟน ปีที่แล้วกูเกิล เปิดตัว ARCore Depth API เพื่อให้นักพัฒนาสามารถสร้างแผนที่เชิงลึกโดยใช้กล้อง RGB เพียงตัวเดียว และสร้างประสบการณ์ AR ที่สมจริงยิ่งขึ้น วันนี้ บริษัทกำลังเพิ่มเครื่องมือใหม่สองอย่างให้กับคลังแสงของ ARCore: Raw Depth API และ Recording and Playback API
ARCore API ความลึกดิบ
Raw Depth API ใหม่สร้างขึ้นจาก API ความลึก เพื่อให้การแสดงวัตถุโดยรอบมีรายละเอียดมากขึ้นโดยการสร้างแผนที่เชิงลึกแบบดิบพร้อมภาพความมั่นใจที่สอดคล้องกัน ในขณะที่ Depth API มุ่งเน้นไปที่การสร้างแผนที่ความลึกที่ราบรื่นพร้อมการประมาณความลึกสำหรับพิกเซลทั้งหมด แต่ Raw Depth API มุ่งหวังที่จะจับภาพแผนที่เชิงลึกที่สมจริงยิ่งขึ้นด้วยภาพที่มั่นใจซึ่งให้ความลึกต่อพิกเซล ประมาณการ.
การปรับปรุงอีกด้านคือการทดสอบการตีซึ่งขณะนี้ใช้แผนที่เชิงลึกแทนระนาบเพื่อให้ผลลัพธ์การทดสอบการตีมากขึ้นแม้บนพื้นที่ไม่ระนาบและมีพื้นผิวต่ำ แอป LifeAR ของ TeamViewer ใช้การทดสอบเชิงลึกเพื่อรวมความสามารถ AR เข้ากับแฮงเอาท์วิดีโอ
การปรับปรุงใหม่เหล่านี้ไม่จำเป็นต้องใช้ฮาร์ดแวร์พิเศษ เช่น เซ็นเซอร์ Time-of-Flight (ToF) จึงสามารถนำไปใช้กับอุปกรณ์ที่ได้รับการรับรอง ARCore ส่วนใหญ่ได้ Raw Depth API และการทดสอบการเข้าถึงเชิงลึกพร้อมให้นักพัฒนาใช้งานได้แล้วตั้งแต่วันนี้
API การบันทึกและการเล่น ARCore
นอกเหนือจาก Raw Depth API ใหม่แล้ว Google ยังเปิดตัว API การบันทึกและการเล่นใหม่ใน ARCore ซึ่งช่วยให้นักพัฒนาแอปมีความยืดหยุ่นมากขึ้นในการทดสอบประสบการณ์ AR ที่แตกต่างกัน เมื่อสร้างประสบการณ์ AR ใหม่ นักพัฒนามักจะต้องทดสอบอย่างต่อเนื่องในสภาพแวดล้อมและสถานที่ที่เฉพาะเจาะจง ด้วย Recording and Playback API ใหม่ นักพัฒนาสามารถบันทึกวิดีโอฟุตเทจด้วยข้อมูลเมตา AR ได้แล้ว เช่นความลึกและข้อมูลเซ็นเซอร์ตรวจจับความเคลื่อนไหว IMU และใช้เพื่อสร้างสภาพแวดล้อมเดิมขึ้นมาใหม่ต่อไป การทดสอบ แนวคิดนี้คือการบันทึกฟุตเทจเพียงครั้งเดียวและใช้เป็นเทมเพลตเพื่อทดสอบเอฟเฟกต์และประสบการณ์ AR อื่นๆ แทนที่จะถ่ายฟุตเทจใหม่ทุกครั้ง แอปเรียกรถโดยสาร Didi-Rider ใช้ API เพื่อสร้างและทดสอบเส้นทางที่ขับเคลื่อนด้วย AR ในแอป และสามารถประหยัดการวิจัยและพัฒนาได้ 25% และเร่งวงจรการพัฒนาให้เร็วขึ้นอีกหกเดือน
สำหรับผู้ใช้ปลายทาง API การบันทึกและการเล่นยังเปิดใช้งานประสบการณ์ AR ใหม่ เช่น AR หลังการจับภาพ ซึ่งช่วยให้ผู้ใช้สามารถป้อนวิดีโอที่บันทึกไว้ก่อนหน้านี้ไปยังแอป AR ได้โดยไม่จำเป็นต้องอยู่ที่นั่นจริง ณ สถานที่นั้น และทำเซสชั่นกล้องถ่ายทอดสด กล่าวอีกนัยหนึ่ง ผู้ใช้สามารถถ่ายฟุตเทจได้ครั้งเดียวและเพิ่มเอฟเฟกต์ AR ในภายหลัง ARCore Recording and Playback API พร้อมใช้งานสำหรับนักพัฒนาตั้งแต่วันนี้ และคุณสามารถอ่านเพิ่มเติมเกี่ยวกับเรื่องนี้ได้ หน้านี้.