Google ได้แยก API การเรียนรู้ของเครื่องบนอุปกรณ์ใน ML Kit ออกจาก Firebase และประกาศโปรแกรม Early Access ใหม่สำหรับการทดสอบ API ที่กำลังจะมีขึ้น
Google ใช้ปัญญาประดิษฐ์อย่างกว้างขวางเพื่อให้บริการผลการค้นหาเว็บและรูปภาพที่มีบริบทและแม่นยำสูง นอกจากการค้นหาบนแพลตฟอร์มเว็บแล้ว โมเดลการเรียนรู้ของเครื่องของ Google ยังมีแอปพลิเคชัน AI ที่หลากหลายบนโทรศัพท์ Android ตั้งแต่การค้นหาด้วยภาพบน กูเกิลเลนส์ ถึง การถ่ายภาพเชิงคำนวณ ที่อุปกรณ์ Pixel มีชื่อเสียง นอกเหนือจากแอปพลิเคชันของตนเองแล้ว Google ยังอนุญาตให้นักพัฒนาบุคคลที่สามรวมคุณลักษณะการเรียนรู้ของเครื่องเข้ากับแอปของตนได้อย่างราบรื่น ความช่วยเหลือของ ML Kit ซึ่งเป็น SDK (ชุดพัฒนาซอฟต์แวร์) ซึ่งเป็นส่วนหนึ่งของ Firebase ซึ่งเป็นแดชบอร์ดการจัดการและการวิเคราะห์ออนไลน์สำหรับมือถือ การพัฒนา. ณ วันนี้ Google กำลังประกาศการเปลี่ยนแปลงที่สำคัญกับ ML Kit และจะทำให้ API บนอุปกรณ์เป็นอิสระจาก Firebase
ML Kit ได้รับการประกาศที่ Google I/O 2018 เพื่อทำให้การเพิ่มฟีเจอร์การเรียนรู้ของเครื่องลงในแอพง่ายขึ้น ในขณะที่เปิดตัว ML Kit ประกอบด้วยการจดจำข้อความ การตรวจจับใบหน้า การสแกนบาร์โค้ด การติดป้ายกำกับรูปภาพ และ API การจดจำสถานที่สำคัญ ใน เมษายน 2019 Google ได้เปิดตัว API การประมวลผลภาษาธรรมชาติ (NLP) ตัวแรกให้กับ SDK สำหรับนักพัฒนาในรูปแบบของการตอบกลับอัจฉริยะและภาษา บัตรประจำตัว หนึ่งเดือนต่อมา นั่นคือที่ Google I/O 2019
Google เปิดตัว ML API ใหม่สามรายการ สำหรับการแปลบนอุปกรณ์ การตรวจจับและติดตามวัตถุ และ AutoML Vision Edge API เพื่อระบุวัตถุเฉพาะ เช่น ประเภทของดอกไม้หรืออาหาร โดยใช้การค้นหาด้วยภาพML Kit ประกอบด้วย API ทั้งบนอุปกรณ์และบนคลาวด์ ตามที่คุณคาดหวัง API บนอุปกรณ์จะประมวลผลข้อมูลโดยใช้โมเดลการเรียนรู้ของเครื่องที่บันทึกไว้ในอุปกรณ์ เอง ในขณะที่ API บนคลาวด์จะส่งข้อมูลไปยังโมเดลการเรียนรู้ของเครื่องที่โฮสต์บน Cloud Platform ของ Google และรับข้อมูลที่ได้รับการแก้ไขผ่านทางอินเทอร์เน็ต การเชื่อมต่อ. เนื่องจาก API บนอุปกรณ์ทำงานโดยไม่มีอินเทอร์เน็ต จึงสามารถแยกวิเคราะห์ข้อมูลได้รวดเร็วกว่าและปลอดภัยกว่า API ที่ทำงานบนระบบคลาวด์ API การเรียนรู้ของเครื่องบนอุปกรณ์สามารถเร่งความเร็วด้วยฮาร์ดแวร์บนอุปกรณ์ Android ที่ใช้ Android Oreo 8.1 ขึ้นไปได้ และวิ่งออกจาก Neural Networks API (NNAPI) ของ Google พร้อมกับบล็อกการคำนวณพิเศษหรือ NPU ที่พบในชิปเซ็ตล่าสุด จาก วอลคอมม์, MediaTek, HiSilicon ฯลฯ
Google เพิ่งโพสต์ก โพสต์บล็อก การประกาศว่า API บนอุปกรณ์จาก ML Kit จะพร้อมใช้งานโดยเป็นส่วนหนึ่งของ SDK อิสระ ซึ่งหมายถึง API บนอุปกรณ์ใน ML Kit ซึ่งรวมถึงการจดจำข้อความ การสแกนบาร์โค้ด การตรวจจับใบหน้า การติดป้ายกำกับรูปภาพ การตรวจจับวัตถุ และ การติดตาม การระบุภาษา การตอบกลับอัจฉริยะ และการแปลบนอุปกรณ์ จะพร้อมใช้งานภายใต้ SDK แยกต่างหากที่สามารถเข้าถึงได้โดยไม่ต้อง ฐานไฟ อย่างไรก็ตาม Google ไม่แนะนำให้ใช้ ML Kit SDK ใน Firebase โยกย้ายโครงการที่มีอยู่ ไปยัง SDK แบบสแตนด์อโลนใหม่ ใหม่ ไมโครไซต์ เปิดตัวพร้อมกับทรัพยากรทั้งหมดที่เกี่ยวข้องกับ ML Kit
นอกเหนือจาก SDK ใหม่แล้ว Google ได้ประกาศการเปลี่ยนแปลงบางอย่างที่ทำให้นักพัฒนาสามารถรวมโมเดลการเรียนรู้ของเครื่องเข้ากับแอปของตนได้ง่ายขึ้น ประการแรก ขณะนี้โมเดลการตรวจจับใบหน้า/รูปร่างได้รับการจัดส่งโดยเป็นส่วนหนึ่งของบริการ Google Play แล้ว ดังนั้นนักพัฒนาจึงไม่จำเป็นต้องโคลน API และโมเดลแยกต่างหากสำหรับแอปของตน ซึ่งช่วยให้แพ็คเกจแอปมีขนาดเล็กลง และสามารถนำโมเดลกลับมาใช้ซ้ำภายในแอปอื่นๆ ได้อย่างราบรื่นยิ่งขึ้น
ประการที่สอง Google ได้เพิ่ม วงจรชีวิตของ Android Jetpack รองรับ API ทั้งหมด สิ่งนี้จะช่วยในการจัดการการใช้ API เมื่อแอปหมุนหน้าจอหรือปิดโดยผู้ใช้ นอกจากนี้ยังอำนวยความสะดวกในการบูรณาการอย่างง่ายดาย ไลบรารี CameraX Jetpack ในแอพที่ใช้ ML Kit
ประการที่สาม Google ได้ประกาศการ โปรแกรมการเข้าถึงก่อน เพื่อให้นักพัฒนาสามารถเข้าถึง API และฟีเจอร์ที่กำลังจะมาถึงได้ก่อนใคร ขณะนี้บริษัทกำลังเพิ่ม API ใหม่สองตัวใน ML Kit สำหรับนักพัฒนาที่ได้รับเลือกเพื่อดูตัวอย่างและแบ่งปันความคิดเห็น API เหล่านี้ประกอบด้วย:
- การแยกเอนทิตี เพื่อตรวจจับสิ่งต่างๆ เช่น หมายเลขโทรศัพท์ ที่อยู่ หมายเลขการชำระเงิน หมายเลขติดตาม และวันที่และเวลาในรูปแบบข้อความ และ
- การตรวจจับท่าทาง เพื่อการตรวจจับจุดโครงกระดูก 33 จุดที่มีความหน่วงต่ำ รวมถึงมือและเท้า
สุดท้ายนี้ Google กำลังอนุญาตให้นักพัฒนาแทนที่ Image Labeling ที่มีอยู่รวมถึง API การตรวจจับและติดตามวัตถุจาก ML Kit ด้วยโมเดลการเรียนรู้ของเครื่องที่กำหนดเองจาก TensorFlow Lite. เร็วๆ นี้บริษัทจะประกาศรายละเอียดเพิ่มเติมเกี่ยวกับวิธีการค้นหาหรือโคลนโมเดล TensorFlow Lite และฝึกอบรมโดยใช้ ML Kit หรือฟีเจอร์การรวม ML ใหม่ของ Android Studio