Google présente les API d'extraction d'entités et de segmentation de selfie au kit ML

click fraud protection

Google a introduit deux nouvelles API dans ML Kit: l'extraction d'entités et la segmentation des selfies. Lisez la suite pour en savoir plus à leur sujet !

Il y a quelques années, Google introduit le kit ML pour permettre aux développeurs de mettre en œuvre plus facilement l'apprentissage automatique dans leurs applications. Depuis lors, nous avons vu des API pour la reconnaissance de l’encre numérique, la traduction sur l’appareil et la détection des visages. Désormais, Google ajoute une nouvelle extraction d'entité au kit ML ainsi qu'une nouvelle fonctionnalité de segmentation Selfie.

Google a dit la nouvelle API Entity Extraction permettra aux développeurs de détecter et de localiser des entités à partir de texte brut et de prendre des mesures en fonction de ces entités.

"L'API fonctionne sur du texte statique et également en temps réel pendant qu'un utilisateur tape", a déclaré Google. "Il prend en charge 11 entités différentes et 15 langues différentes (et d'autres à venir) pour permettre aux développeurs de faire de toute interaction textuelle une expérience plus riche pour l'utilisateur."

Voici les entités prises en charge :

  • Adresse(350 troisième rue, Cambridge)
  • Date-Heure*(12/12/2020, demain à 15h) (rendez-vous demain à 18h)
  • E-mail(entité[email protected])
  • Numéro de vol*(LX37)
  • IBAN*(CH52 0483 0000 0000 00009)
  • ISBN*(978-1101904190)
  • Argent (y compris les devises)*(12 $, 25 USD)
  • Carte de paiement*(4111 1111 1111 1111)
  • Numéro de téléphone((555) 225-3556, 12345)
  • Numéro de suivi*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google a déclaré avoir testé l'API Entity Extraction avec TamTam pour permettre à l'application de fournir des suggestions utiles aux utilisateurs lors des conversations de chat. Lorsqu'une adresse est à l'écran, par exemple, cliquer dessus fera apparaître un menu pour copier l'adresse, l'ouvrir avec une autre application ou obtenir un itinéraire vers l'emplacement.

Les annotateurs/modèles de réseau neuronal de l'API Entity Extraction fonctionnent comme suit: un texte d'entrée donné est d'abord divisé en mots (en fonction de la séparation des espaces), puis toutes les sous-séquences de mots possibles de une certaine longueur maximale (15 mots dans l'exemple ci-dessus) est générée, et pour chaque candidat, le réseau neuronal de notation attribue une valeur (entre 0 et 1) selon qu'il représente ou non une entité valide.

Ensuite, les entités générées qui se chevauchent sont supprimées, privilégiant celles ayant un score plus élevé par rapport à celles en conflit ayant un score inférieur. Ensuite, un deuxième réseau neuronal est utilisé pour classer le type de l'entité comme un numéro de téléphone, une adresse ou, dans certains cas, une non-entité.

Google a déclaré que l'API Entity Extraction de ML Kit s'appuie sur la technologie qui alimente la fonctionnalité Smart Linkify introduite avec Android 10.

En plus de l'extraction d'entités basée sur du texte, Google a également annoncé une nouvelle API de segmentation Selfie. La fonctionnalité permettra aux développeurs de séparer l'arrière-plan d'une scène. Cela permettra aux utilisateurs d'ajouter des effets sympas à leurs selfies ou même de s'insérer dans un meilleur arrière-plan. Google a déclaré que la nouvelle API est capable de produire d'excellents résultats avec une faible latence sur Android et iOS.

Le SDK ML Kit intègre des années de travail de Google sur l'apprentissage automatique dans un package Firebase que les développeurs d'applications mobiles peuvent utiliser pour améliorer leurs applications. Depuis l'introduction de ML Kit, un certain nombre d'API ont été dévoilées, ce qui facilite grandement la mise en œuvre de fonctionnalités basées sur l'apprentissage automatique dans les applications pour les développeurs. Avec Entity Extraction et Selfie Segmentation, les applications du futur vont s’améliorer encore.