Google introduserer Entity Extraction, Selfie Segmentation APIer til ML Kit

click fraud protection

Google har introdusert to nye API-er til ML Kit: Entity Extraction og Selfie Segmentation. Les videre for å vite mer om dem!

For noen år siden, Google introduserte ML Kit for å gjøre det enklere for utviklere å implementere maskinlæring i appene sine. Siden den gang har vi sett APIer for digital blekkgjenkjenning, oversettelse på enheten og ansiktsgjenkjenning. Nå legger Google til en ny Entity Extraction til ML Kit sammen med en ny Selfie Segmentation-funksjon.

sa Google den nye Entity Extraction API vil tillate utviklere å oppdage og lokalisere enheter fra rå tekst, og iverksette tiltak basert på disse enhetene.

"API-en fungerer på statisk tekst og også i sanntid mens en bruker skriver," sa Google. "Den støtter 11 forskjellige enheter og 15 forskjellige språk (med flere som kommer i fremtiden) for å tillate utviklere å gjøre enhver tekstinteraksjon til en rikere opplevelse for brukeren."

Her er enhetene som støttes:

  • Adresse(350 tredje gate, Cambridge)
  • Dato tid*(12/12/2020, i morgen kl. 15.00) (la oss møtes i morgen kl. 18.00)
  • E-post([email protected])
  • Flightnummer*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Penger (inkludert valuta)*($12, 25USD)
  • Betalingskort*(4111 1111 1111 1111)
  • Telefonnummer((555) 225-3556, 12345)
  • Sporingsnummer*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google sa at det har testet Entity Extraction API med TamTam for å la appen gi nyttige forslag til brukere under chatsamtaler. Når en adresse er på skjermen, for eksempel, vil et klikk på den få opp en meny for å kopiere adressen, åpne med en annen app eller få veibeskrivelse til stedet.

De nevrale nettverksannotatorene/-modellene i Entity Extraction API fungerer som følger: En gitt inngangstekst deles først opp i ord (basert på mellomromsseparasjon), deretter alle mulige ordundersekvenser av en viss maksimal lengde (15 ord i eksemplet ovenfor) genereres, og for hver kandidat tildeler det poenggivende nevrale nettet en verdi (mellom 0 og 1) basert på om det representerer en gyldig enhet.

Deretter fjernes de genererte enhetene som overlapper, og favoriserer de med høyere poengsum fremfor de motstridende med lavere poengsum. Deretter brukes et andre nevralt nettverk til å klassifisere typen av enheten som et telefonnummer, en adresse, eller i noen tilfeller en ikke-enhet.

Google sa at ML Kits Entity Extraction API bygger på teknologi som drev Smart Linkify-funksjonen introdusert med Android 10.

I tillegg til tekstbasert Entity Extraction, annonserte Google også en ny Selfie Segmentation API. Funksjonen vil tillate utviklere å skille bakgrunnen fra en scene. Dette vil gjøre det mulig for brukere å legge til kule effekter på selfies eller til og med sette seg inn i en bedre bakgrunn. Google sa at det nye API-et er i stand til å gi gode resultater med lav ventetid på både Android og iOS.

ML Kit SDK inkorporerer år med Googles arbeid med maskinlæring i en Firebase-pakke som utviklere av mobilapper kan bruke til å forbedre appene sine. Siden ML Kit ble introdusert, har en rekke APIer blitt avduket som gjør implementering av maskinlæringsdrevne funksjoner i apper mye enklere for utviklere. Med Entity Extraction og Selfie Segmentation kommer fremtidens apper til å bli enda bedre.