Google introducerar Entity Extraction, Selfie Segmentation APIs till ML Kit

click fraud protection

Google har introducerat två nya API: er till ML Kit: Entity Extraction och Selfie Segmentation. Läs vidare för att veta mer om dem!

För några år sedan, Google introducerade ML Kit för att göra det enklare för utvecklare att implementera maskininlärning i sina appar. Sedan dess har vi sett API: er för Digital Ink Recognition, On-Device Translation och Face Detection. Nu lägger Google till en ny Entity Extraction till ML Kit tillsammans med en ny Selfie Segmentation-funktion.

sa Google det nya Entity Extraction API kommer att tillåta utvecklare att upptäcka och lokalisera enheter från råtext och vidta åtgärder baserat på dessa enheter.

"API: et fungerar på statisk text och även i realtid medan en användare skriver," sa Google. "Den stöder 11 olika enheter och 15 olika språk (med fler kommer i framtiden) för att göra det möjligt för utvecklare att göra all textinteraktion till en rikare upplevelse för användaren."

Här är de enheter som stöds:

  • Adress(350 tredje gatan, Cambridge)
  • Datum Tid*(12/12/2020, imorgon kl. 15.00) (vi träffas imorgon kl. 18.00)
  • E-post([email protected])
  • Flygnummer*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Pengar (inklusive valuta)*($12, 25USD)
  • Betalkort*(4111 1111 1111 1111)
  • Telefonnummer((555) 225-3556, 12345)
  • Spårningsnummer*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google sa att det har testat Entity Extraction API med TamTam för att tillåta appen att ge användbara förslag till användare under chattkonversationer. När en adress är på skärmen, till exempel, om du klickar på den kommer en meny att kopiera adressen, öppna med en annan app eller få vägbeskrivningar till platsen.

De neurala nätverksannotatorerna/modellerna i Entity Extraction API fungerar enligt följande: En given ingångstext delas först upp i ord (baserat på rymdseparation), sedan alla möjliga ordföljder av viss maximal längd (15 ord i exemplet ovan) genereras, och för varje kandidat tilldelar det poänggivande neurala nätet ett värde (mellan 0 och 1) baserat på om det representerar en giltig enhet.

Därefter tas de genererade enheterna som överlappar bort, vilket gynnar de med högre poäng framför de motstridiga med lägre poäng. Sedan används ett andra neuralt nätverk för att klassificera typen av entitet som ett telefonnummer, en adress eller i vissa fall en icke-entitet.

Google sa att ML Kits Entity Extraction API bygger på teknik som drev Smart Linkify-funktionen som introducerades med Android 10.

Förutom textbaserad Entity Extraction tillkännagav Google också ett nytt Selfie Segmentation API. Funktionen gör det möjligt för utvecklare att separera bakgrunden från en scen. Detta kommer att göra det möjligt för användare att lägga till coola effekter till selfies eller till och med infoga sig själva i en bättre bakgrund. Google sa att det nya API: et kan ge fantastiska resultat med låg latens på både Android och iOS.

ML Kit SDK innehåller år av Googles arbete med maskininlärning i ett Firebase-paket som utvecklare av mobilappar kan använda för att förbättra sina appar. Sedan ML Kit introducerades har ett antal API: er avslöjats som gör det mycket lättare för utvecklare att implementera maskininlärningsdrivna funktioner i appar. Med Entity Extraction och Selfie Segmentation kommer framtidens appar att bli ännu bättre.