Google introducerer Entity Extraction, Selfie Segmentation API'er til ML Kit

click fraud protection

Google har introduceret to nye API'er til ML Kit: Entity Extraction og Selfie Segmentation. Læs videre for at vide mere om dem!

For nogle år siden, Google introducerede ML Kit for at gøre det nemmere for udviklere at implementere maskinlæring i deres apps. Siden da har vi set API'er til Digital Ink Recognition, On-Device Translation og Face Detection. Nu tilføjer Google en ny Entity Extraction til ML Kit sammen med en ny Selfie Segmentation-funktion.

sagde Google den nye Entity Extraction API vil give udviklere mulighed for at opdage og lokalisere enheder fra rå tekst og tage handling baseret på disse entiteter.

"API'en fungerer på statisk tekst og også i realtid, mens en bruger skriver," sagde Google. "Det understøtter 11 forskellige enheder og 15 forskellige sprog (med flere på vej i fremtiden) for at give udviklere mulighed for at gøre enhver tekstinteraktion til en rigere oplevelse for brugeren."

Her er de enheder, der understøttes:

  • Adresse(350 tredje gade, Cambridge)
  • Dato tid*(12/12/2020, i morgen kl. 15) (lad os mødes i morgen kl. 18)
  • E-mail([email protected])
  • Flynummer*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Penge (inklusive valuta)*($12, 25USD)
  • Betalingskort*(4111 1111 1111 1111)
  • Telefonnummer((555) 225-3556, 12345)
  • Tracking nummer*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google sagde, at det har testet Entity Extraction API med TamTam for at give appen mulighed for at give nyttige forslag til brugere under chatsamtaler. Når en adresse er på skærmen, for eksempel, vil et klik på den åbne en menu til at kopiere adressen, åbne med en anden app eller få rutevejledning til placeringen.

De neurale netværksannotatorer/modeller i Entity Extraction API'en fungerer som følger: En given inputtekst opdeles først i ord (baseret på rumadskillelse), derefter alle mulige ordfølger af Der genereres en vis maksimal længde (15 ord i eksemplet ovenfor), og for hver kandidat tildeler det scorende neurale net en værdi (mellem 0 og 1) baseret på, om det repræsenterer en gyldig enhed.

Dernæst fjernes de genererede enheder, der overlapper, og favoriserer dem med en højere score frem for modstridende med en lavere score. Derefter bruges et andet neuralt netværk til at klassificere typen af ​​enheden som et telefonnummer, en adresse eller i nogle tilfælde en ikke-entitet.

Google sagde, at ML Kits Entity Extraction API bygger på teknologi, der drev Smart Linkify-funktionen introduceret med Android 10.

Udover tekstbaseret Entity Extraction annoncerede Google også en ny Selfie Segmentation API. Funktionen giver udviklere mulighed for at adskille baggrunden fra en scene. Dette vil gøre det muligt for brugere at tilføje fede effekter til selfies eller endda indsætte sig selv i en bedre baggrund. Google sagde, at den nye API er i stand til at producere fantastiske resultater med lav forsinkelse på både Android og iOS.

ML Kit SDK inkorporerer mange års Googles arbejde med maskinlæring i en Firebase-pakke, som udviklere af mobilapps kan bruge til at forbedre deres apps. Siden ML Kit blev introduceret, er en række API'er blevet afsløret, der gør implementering af maskinlæringsdrevne funktioner i apps meget nemmere for udviklere. Med Entity Extraction og Selfie Segmentation vil fremtidens apps blive endnu bedre.