Google เปิดตัว Entity Extraction, Selfie Segmentation APIs ให้กับ ML Kit

Google ได้เปิดตัว API ใหม่สองตัวสำหรับ ML Kit: การแยกเอนทิตีและการแบ่งส่วนเซลฟี่ อ่านต่อเพื่อทราบข้อมูลเพิ่มเติมเกี่ยวกับพวกเขา!

เมื่อไม่กี่ปีที่ผ่านมา Google แนะนำ ML Kit เพื่อให้นักพัฒนาสามารถนำการเรียนรู้ของระบบไปใช้กับแอพของตนได้ง่ายขึ้น ตั้งแต่นั้นมา เราได้เห็น API สำหรับการจดจำหมึกดิจิทัล การแปลบนอุปกรณ์ และการตรวจจับใบหน้า ตอนนี้ Google กำลังเพิ่มการแยกเอนทิตีใหม่ให้กับ ML Kit พร้อมกับฟีเจอร์การแบ่งส่วนเซลฟี่ใหม่

Google กล่าวว่า API การแยกเอนทิตีใหม่จะช่วยให้นักพัฒนาสามารถตรวจจับและค้นหาเอนทิตีจากข้อความดิบ และดำเนินการตามเอนทิตีเหล่านั้น

“API ทำงานบนข้อความคงที่และแบบเรียลไทม์ในขณะที่ผู้ใช้กำลังพิมพ์” Google กล่าว “รองรับ 11 เอนทิตีที่แตกต่างกันและ 15 ภาษาที่แตกต่างกัน (และจะมีเพิ่มมากขึ้นในอนาคต) เพื่อให้นักพัฒนาสามารถทำให้การโต้ตอบด้วยข้อความเป็นประสบการณ์ที่สมบูรณ์ยิ่งขึ้นสำหรับผู้ใช้”

นี่คือเอนทิตีที่ได้รับการสนับสนุน:

  • ที่อยู่(350 ถนนสายที่สาม เคมบริดจ์)
  • วันเวลา*(12/12/2020 พรุ่งนี้ 15.00 น.) (เจอกันพรุ่งนี้ 18.00 น.)
  • อีเมล(เอนทิตี[email protected])
  • เที่ยวบินหมายเลข*(LX37)
  • ไอแบน*(CH52 0483 0000 0000 0000 9)
  • ไอเอสบีเอ็น*(978-1101904190)
  • เงิน (รวมสกุลเงิน)*($12, 25USD)
  • บัตรชำระเงิน*(4111 1111 1111 1111)
  • หมายเลขโทรศัพท์((555) 225-3556, 12345)
  • หมายเลขติดตาม*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google กล่าวว่ากำลังทดสอบ Entity Extraction API กับ TamTam เพื่อให้แอปสามารถให้คำแนะนำที่เป็นประโยชน์แก่ผู้ใช้ในระหว่างการสนทนาแชท เมื่อมีที่อยู่บนหน้าจอ เช่น การคลิกก็จะเรียกเมนูให้คัดลอกที่อยู่ เปิดด้วยแอปอื่น หรือขอเส้นทางไปยังสถานที่นั้น

คำอธิบายประกอบ/โมเดลโครงข่ายประสาทเทียมใน Entity Extraction API ทำงานดังนี้: ข้อความอินพุตที่กำหนดจะถูกแบ่งออกเป็นคำก่อน (ขึ้นอยู่กับการแยกช่องว่าง) จากนั้นจึงตามด้วยลำดับย่อยของคำที่เป็นไปได้ทั้งหมดของ ความยาวสูงสุดที่กำหนด (15 คำในตัวอย่างด้านบน) จะถูกสร้างขึ้น และสำหรับผู้สมัครแต่ละคน โครงข่ายประสาทเทียมที่ให้คะแนนจะกำหนดค่า (ระหว่าง 0 ถึง 1) โดยขึ้นอยู่กับว่าแสดงถึงเอนทิตีที่ถูกต้องหรือไม่

ถัดไป เอนทิตีที่สร้างขึ้นซึ่งทับซ้อนกันจะถูกลบออก โดยให้ความสำคัญกับเอนทิตีที่มีคะแนนสูงกว่ามากกว่าเอนทิตีที่ขัดแย้งกันซึ่งมีคะแนนต่ำกว่า จากนั้นโครงข่ายประสาทเทียมที่สองจะใช้ในการจำแนกประเภทของเอนทิตีเป็นหมายเลขโทรศัพท์ ที่อยู่ หรือในบางกรณี ไม่ใช่เอนทิตี

Google กล่าวว่า Entity Extraction API ของ ML Kit สร้างขึ้นจากเทคโนโลยีที่ขับเคลื่อนฟีเจอร์ Smart Linkify ที่นำมาใช้กับ Android 10

นอกเหนือจากการแยกเอนทิตีแบบข้อความแล้ว Google ยังได้ประกาศ Selfie Segmentation API ใหม่อีกด้วย คุณสมบัตินี้จะช่วยให้นักพัฒนาสามารถแยกพื้นหลังออกจากฉากได้ ซึ่งจะช่วยให้ผู้ใช้สามารถเพิ่มเอฟเฟ็กต์สุดเจ๋งให้กับภาพเซลฟี่หรือแม้แต่ใส่ตัวเองลงในพื้นหลังที่ดีขึ้นได้ Google กล่าวว่า API ใหม่สามารถสร้างผลลัพธ์ที่ยอดเยี่ยมโดยมีความหน่วงต่ำทั้งบน Android และ iOS

ML Kit SDK รวมการทำงานหลายปีของ Google เกี่ยวกับการเรียนรู้ของเครื่องเข้ากับแพ็คเกจ Firebase ที่นักพัฒนาแอปมือถือสามารถใช้เพื่อปรับปรุงแอปของตนได้ นับตั้งแต่เปิดตัว ML Kit มีการเปิดตัว API จำนวนหนึ่งซึ่งทำให้การนำคุณสมบัติที่ขับเคลื่อนด้วยการเรียนรู้ของเครื่องในแอพไปใช้ง่ายขึ้นมากสำหรับนักพัฒนา ด้วยการแยกเอนทิตีและการแบ่งส่วนเซลฟี่ แอปแห่งอนาคตจะดียิ่งขึ้นไปอีก