Google introduceert Entity Extraction en Selfie Segmentation API's in ML Kit

click fraud protection

Google heeft twee nieuwe API's geïntroduceerd in ML Kit: Entity Extraction en Selfie Segmentation. Lees verder om meer over hen te weten!

Een paar jaar geleden, Google ML-kit geïntroduceerd om het voor ontwikkelaars gemakkelijker te maken om machine learning in hun apps te implementeren. Sindsdien hebben we API's gezien voor digitale inktherkenning, vertaling op het apparaat en gezichtsdetectie. Nu voegt Google een nieuwe entiteitsextractie toe aan ML Kit, samen met een nieuwe selfie-segmentatiefunctie.

Google zei Met de nieuwe Enty Extraction API kunnen ontwikkelaars entiteiten uit onbewerkte tekst detecteren en lokaliseren, en actie ondernemen op basis van die entiteiten.

“De API werkt op statische tekst en ook in realtime terwijl een gebruiker aan het typen is”, aldus Google. “Het ondersteunt 11 verschillende entiteiten en 15 verschillende talen (en er komen er nog meer in de toekomst) zodat ontwikkelaars van elke tekstinteractie een rijkere ervaring voor de gebruiker kunnen maken.”

Dit zijn de entiteiten die worden ondersteund:

  • Adres(350 derde straat, Cambridge)
  • Datum Tijd*(12/12/2020, morgen om 15.00 uur) (laten we elkaar morgen om 18.00 uur ontmoeten)
  • E-mail([email protected])
  • Vluchtnummer*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Geld (inclusief valuta)*($ 12, 25 USD)
  • Betaalkaart*(4111 1111 1111 1111)
  • Telefoonnummer((555) 225-3556, 12345)
  • Volg nummer*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google zei dat het de Entity Extraction API met TamTam heeft getest, zodat de app nuttige suggesties aan gebruikers kan geven tijdens chatgesprekken. Wanneer er bijvoorbeeld een adres op het scherm staat, wordt door erop te klikken een menu weergegeven waarin u het adres kunt kopiëren, kunt openen met een andere app of een routebeschrijving naar de locatie kunt opvragen.

De neurale netwerkannotators/modellen in de Entity Extraction API werken als volgt: Een gegeven invoertekst wordt eerst opgesplitst in woorden (gebaseerd op ruimtescheiding), daarna worden alle mogelijke woordsubreeksen van Er wordt een bepaalde maximale lengte (15 woorden in het bovenstaande voorbeeld) gegenereerd, en voor elke kandidaat kent het scorende neurale net een waarde toe (tussen 0 en 1) op basis van de vraag of het een geldige entiteit vertegenwoordigt.

Vervolgens worden de gegenereerde entiteiten die elkaar overlappen verwijderd, waarbij de entiteiten met een hogere score de voorkeur krijgen boven de conflicterende entiteiten met een lagere score. Vervolgens wordt een tweede neuraal netwerk gebruikt om het type entiteit te classificeren als een telefoonnummer, een adres of, in sommige gevallen, een niet-entiteit.

Google zei dat de Entity Extraction API van ML Kit voortbouwt op technologie die de Smart Linkify-functie aandreef die werd geïntroduceerd met Android 10.

Naast op tekst gebaseerde entiteitsextractie heeft Google ook een nieuwe Selfie Segmentation API aangekondigd. Met deze functie kunnen ontwikkelaars de achtergrond van een scène scheiden. Hierdoor kunnen gebruikers coole effecten aan selfies toevoegen of zichzelf zelfs in een betere achtergrond plaatsen. Google zei dat de nieuwe API geweldige resultaten kan opleveren met een lage latentie op zowel Android als iOS.

De ML Kit SDK integreert jaren werk van Google op het gebied van machine learning in een Firebase-pakket dat ontwikkelaars van mobiele apps kunnen gebruiken om hun apps te verbeteren. Sinds de introductie van ML Kit zijn er een aantal API's onthuld die het implementeren van door machine learning aangedreven functies in apps veel eenvoudiger maken voor ontwikkelaars. Met Entity Extraction en Selfie Segmentation worden apps van de toekomst nog beter.