Sie interessieren sich für maschinelles Lernen, haben aber nicht viel Erfahrung? Mit dem neuen ML Kit SDK von Google lässt sich maschinelles Lernen ganz einfach in Ihre Android- oder iOS-App integrieren.
Maschinelles Lernen und künstliche Intelligenz haben in den letzten Jahren schnell Eingang in unser Lexikon gefunden, aber nur wenige verstehen wirklich, wie die Technologie funktioniert oder wozu sie in der Lage ist. Sogar Googles eigene KI-Forscher Witz, dass maschinelles Lernen mit Alchemie vergleichbar ist. Als vielbeschäftigter Entwickler haben Sie vielleicht nicht die Zeit, sich mit maschinellem Lernen (ML) vertraut zu machen, aber Google möchte Sie dadurch nicht davon abhalten, von den Vorteilen zu profitieren. Aus diesem Grund gab das Unternehmen heute bekannt ML-Kit: Ein neues SDK, das jahrelange Arbeit von Google zum maschinellen Lernen in ein Firebase-Paket integriert, das Entwicklern mobiler Apps zur Verfügung steht sowohl iOS als auch Android mit denen sie ihre Apps verbessern können.
Wenn du Ich weiß nichts über maschinelles Lernen, dann mach dir keine Sorgen: Sie benötigen keine ML-Vorkenntnisse. Sie sind wahrscheinlich mit einigen realen Anwendungen der Technologie vertraut, beispielsweise der Gesichtserkennung und Bilderkennung. Mit dem ML-Kit von Google soll Ihre App von den realen Einsatzmöglichkeiten von ML profitieren, ohne dass Sie verstehen müssen, wie der Algorithmus funktioniert. Und wenn Sie ML verstehen oder bereit sind, es zu lernen, können auch Sie das ML-Kit nutzen.
Maschinelles Lernen für Anfänger mit ML Kit
Das neue Firebase SDK für ML von Google bietet fünf APIs für einige der häufigsten Anwendungsfälle auf Mobilgeräten:
- Texterkennung
- Gesichtserkennung
- Barcode-Scannen
- Bildbeschriftung
- Anerkennung als Wahrzeichen
Sie müssen lediglich Daten an die API übergeben und das SDK gibt eine Antwort zurück. So einfach ist das. Einige Beispiele für die Verwendung von ML umfassen Musikanwendungen, die die von Ihnen gespielten Noten interpretieren und Echo-/Geräuschunterdrückung auf Ihre Musik anwenden. Ein weiteres Beispiel könnte die optische Zeichenerkennung (OCR) für Nährwertkennzeichnungen für Kalorienzähl-Apps sein.
Die Liste der verfügbaren Basis-APIs wird in den kommenden Monaten um eine Smart-Reply-API erweitert Android P und eine Gesichtskonturerweiterung mit hoher Dichte zur Gesichtserkennungs-API.
ML-Kit für erfahrene Benutzer
Wenn Sie über ein wenig Vorwissen verfügen, können Sie auch Ihre eigene benutzerdefinierte Lösung bereitstellen TensorFlow Lite Modelle. Sie müssen lediglich Ihr Modell auf die Firebase-Konsole hochladen, sodass Sie sich keine Gedanken über die Bündelung des Modells in Ihrer machen müssen APK (wodurch die Dateigröße reduziert wird). ML Kit stellt Ihr Modell dynamisch bereit, sodass Sie Ihre Modelle aktualisieren können, ohne Ihr Modell erneut zu veröffentlichen App.
Noch besser ist, dass Google vollständige TensorFlow-Modelle automatisch in einen TensorFlow Lite komprimiert Modell, das die Dateigröße reduziert und sicherstellt, dass mehr Menschen mit begrenzten Datenverbindungen Ihr Gerät genießen können App.
On-Device- und Cloud-APIs
ML Kit bietet sowohl On-Device- als auch Cloud-APIs. Die On-Device-API verarbeitet Daten ohne Netzwerkverbindung (z. B Die Textauswahlfunktion von Android Oreo), während die Cloud-APIs die Google Cloud Platform verwenden, um Daten für mehr Genauigkeit zu verarbeiten.
ML Kit funktioniert sowohl auf Android als auch auf iOS, und auf Android funktioniert es insbesondere mit Geräten, auf denen Android-Versionen laufen, die so alt sind wie Ice Cream Sandwich. Wenn der Benutzer läuft Android 8.1 Oreo und höher bietet ML Kit dank der bereits vorhandenen Neural Networks API eine bessere Leistung. Auf Geräten mit Chipsätzen, die über spezielle Hardware verfügen, wie z Qualcomm Snapdragon 845 (und sein Hexagon DSP) oder der HiSilicon Kirin 970 (und seiner Neural Processing Unit) wird die Verarbeitung auf dem Gerät beschleunigt. Google sagt, dass sie auch mit SoC-Anbietern zusammenarbeiten, um die Erkennung auf dem Gerät zu verbessern.
Abschluss
Entwickler, die anfangen möchten, sollten nach dem neuen SDK im suchen Firebase-Konsole. Sie können Feedback im hinterlassen Google-Gruppe für Firebase.
Entwickler mit Erfahrung in ML, die den Algorithmus von Google zum Komprimieren von TensorFlow-Modellen ausprobieren möchten, können dies tun Hier anmelden. Schauen Sie sich zum Schluss die an Firebase-Remote-Konfiguration wenn Sie mit mehreren benutzerdefinierten Modellen experimentieren möchten; Es ermöglicht Ihnen, Modellwerte dynamisch zu ändern, Bevölkerungssegmente zu erstellen und mit mehreren Modellen parallel zu experimentieren.