Google introduce le API Entity Extraction e Selfie Segmentation nel kit ML

Google ha introdotto due nuove API in ML Kit: Entity Extraction e Selfie Segmentation. Continua a leggere per saperne di più su di loro!

Qualche anno fa, Google introdotto il kit ML per rendere più semplice per gli sviluppatori implementare l'apprendimento automatico nelle loro app. Da allora, abbiamo visto API per il riconoscimento dell’inchiostro digitale, la traduzione sul dispositivo e il rilevamento dei volti. Ora, Google sta aggiungendo una nuova estrazione di entità al kit ML insieme a una nuova funzionalità di segmentazione dei selfie.

Google ha detto la nuova API Entity Extraction consentirà agli sviluppatori di rilevare e individuare entità dal testo non elaborato e agire in base a tali entità.

"L'API funziona su testo statico e anche in tempo reale mentre un utente sta digitando", ha affermato Google. "Supporta 11 entità diverse e 15 lingue diverse (con altre in arrivo) per consentire agli sviluppatori di rendere qualsiasi interazione testuale un'esperienza più ricca per l'utente."

Ecco le entità supportate:

  • Indirizzo(350 terza strada, Cambridge)
  • Appuntamento*(12/12/2020, domani alle 15) (ci vediamo domani alle 18)
  • E-mail([email protected])
  • Numero di volo*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Denaro (valuta inclusa)*($ 12, 25 USD)
  • Carta di pagamento*(4111 1111 1111 1111)
  • Numero di telefono((555) 225-3556, 12345)
  • Numero di identificazione*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google ha affermato che sta testando l'API Entity Extraction con TamTam per consentire all'app di fornire suggerimenti utili agli utenti durante le conversazioni in chat. Quando un indirizzo è sullo schermo, ad esempio, facendo clic su di esso verrà visualizzato un menu per copiare l'indirizzo, aprirlo con un'altra app o ottenere indicazioni stradali per raggiungere la posizione.

Gli annotatori/modelli della rete neurale nell'API Entity Extraction funzionano come segue: un dato testo di input viene prima suddiviso in parole (in base alla separazione degli spazi), quindi tutte le possibili sottosequenze di parole vengono generate una certa lunghezza massima (15 parole nell'esempio sopra) e per ciascun candidato la rete neurale di punteggio assegna un valore (tra 0 e 1) in base al fatto che rappresenti un'entità valida.

Successivamente, le entità generate che si sovrappongono vengono rimosse, favorendo quelle con un punteggio più alto rispetto a quelle in conflitto con un punteggio più basso. Quindi una seconda rete neurale viene utilizzata per classificare il tipo di entità come un numero di telefono, un indirizzo o, in alcuni casi, una non entità.

Google ha affermato che l'API Entity Extraction di ML Kit si basa sulla tecnologia che ha alimentato la funzionalità Smart Linkify introdotta con Android 10.

Oltre all'estrazione di entità basata su testo, Google ha anche annunciato una nuova API di segmentazione selfie. La funzione consentirà agli sviluppatori di separare lo sfondo da una scena. Ciò consentirà agli utenti di aggiungere fantastici effetti ai selfie o persino di inserirsi in uno sfondo migliore. Google ha affermato che la nuova API è in grado di produrre ottimi risultati con bassa latenza sia su Android che su iOS.

L'SDK ML Kit incorpora anni di lavoro di Google sull'apprendimento automatico in un pacchetto Firebase che gli sviluppatori di app mobili possono utilizzare per migliorare le proprie app. Da quando è stato introdotto ML Kit, sono state svelate numerose API che rendono molto più semplice per gli sviluppatori l'implementazione di funzionalità basate sull'apprendimento automatico nelle app. Con Entity Extraction e Selfie Segmentation, le app del futuro diventeranno ancora migliori.