Google führt Entity Extraction- und Selfie-Segmentierungs-APIs in ML Kit ein

click fraud protection

Google hat zwei neue APIs für ML Kit eingeführt: Entity Extraction und Selfie Segmentation. Lesen Sie weiter, um mehr über sie zu erfahren!

Vor ein paar Jahren Google Einführung des ML-Kits um Entwicklern die Implementierung von maschinellem Lernen in ihre Apps zu erleichtern. Seitdem haben wir APIs für die Erkennung digitaler Tinte, die Übersetzung auf dem Gerät und die Gesichtserkennung gesehen. Jetzt fügt Google dem ML-Kit eine neue Entitätsextraktion sowie eine neue Selfie-Segmentierungsfunktion hinzu.

Google sagte Mit der neuen Entity Extraction API können Entwickler Entitäten aus Rohtext erkennen und lokalisieren und auf der Grundlage dieser Entitäten Maßnahmen ergreifen.

„Die API funktioniert mit statischem Text und auch in Echtzeit, während ein Benutzer tippt“, sagte Google. „Es unterstützt 11 verschiedene Entitäten und 15 verschiedene Sprachen (weitere werden in Zukunft folgen), um es Entwicklern zu ermöglichen, jede Textinteraktion für den Benutzer zu einem umfassenderen Erlebnis zu machen.“

Hier sind die Entitäten, die unterstützt werden:

  • Adresse(350 Third Street, Cambridge)
  • Terminzeit*(12.12.2020, morgen um 15 Uhr) (treffen wir uns morgen um 18 Uhr)
  • Email([email protected])
  • Flugnummer*(LX37)
  • IBAN*(CH52 0483 0000 0000 0000 9)
  • ISBN*(978-1101904190)
  • Geld (einschließlich Währung)*(12 $, 25 USD)
  • Zahlungskarte*(4111 1111 1111 1111)
  • Telefonnummer((555) 225-3556, 12345)
  • Tracking-Nummer*(1Z204E380338943508)
  • URL(www.google.com, https://en.wikipedia.org/wiki/Platypus, seznam.cz)

Google gab an, die Entity Extraction API mit TamTam getestet zu haben, damit die App Benutzern während Chat-Gesprächen hilfreiche Vorschläge machen kann. Wenn beispielsweise eine Adresse auf dem Bildschirm angezeigt wird, wird durch Klicken darauf ein Menü angezeigt, in dem Sie die Adresse kopieren, mit einer anderen App öffnen oder eine Wegbeschreibung zum Standort abrufen können.

Die neuronalen Netzwerkannotatoren/-modelle in der Entity Extraction API funktionieren wie folgt: Ein gegebener Eingabetext wird zunächst in Wörter aufgeteilt (basierend auf der Leerzeichentrennung) und dann in alle möglichen Wortteilfolgen davon Es werden bestimmte maximale Längen (im Beispiel oben 15 Wörter) generiert, und für jeden Kandidaten weist das bewertende neuronale Netz einen Wert (zwischen 0 und 1) zu, basierend darauf, ob er eine gültige Entität darstellt.

Als nächstes werden die generierten Entitäten, die sich überschneiden, entfernt, wobei diejenigen mit einer höheren Bewertung gegenüber den widersprüchlichen mit einer niedrigeren Bewertung bevorzugt werden. Dann wird ein zweites neuronales Netzwerk verwendet, um den Typ der Entität als Telefonnummer, Adresse oder in einigen Fällen als Nicht-Entität zu klassifizieren.

Google sagte, dass die Entity Extraction API von ML Kit auf der Technologie aufbaut, die die mit Android 10 eingeführte Smart Linkify-Funktion unterstützt.

Zusätzlich zur textbasierten Entitätsextraktion hat Google auch eine neue Selfie-Segmentierungs-API angekündigt. Mit dieser Funktion können Entwickler den Hintergrund von einer Szene trennen. Dadurch können Benutzer Selfies mit coolen Effekten versehen oder sich sogar in einen besseren Hintergrund einfügen. Laut Google ist die neue API in der Lage, sowohl auf Android als auch auf iOS großartige Ergebnisse mit geringer Latenz zu erzielen.

Das ML Kit SDK integriert jahrelange Arbeit von Google im Bereich maschinelles Lernen in ein Firebase-Paket, mit dem Entwickler mobiler Apps ihre Apps verbessern können. Seit der Einführung von ML Kit wurden eine Reihe von APIs vorgestellt, die die Implementierung maschineller Lernfunktionen in Apps für Entwickler erheblich erleichtern. Mit Entity Extraction und Selfie Segmentation werden die Apps der Zukunft noch besser.