Google macht maschinelles Lernen auf Android schneller und konsistenter

Auf der Google I/O 2021 sprach Google darüber, wie es maschinelles Lernen für Entwickler auf Android-Geräten schneller und konsistenter macht.

Im Anschluss an die gestrige Hauptpräsentation unter Google I/O 2021Das Unternehmen hielt mehrere Sitzungen ab, die jetzt auf Abruf über YouTube verfügbar sind. In einer der Sitzungen ging es um die Neuerungen beim maschinellen Lernen für Android und wie Google es für Entwickler schneller und konsistenter macht.

Maschinelles Lernen ist dafür verantwortlich, Funktionen zu ermöglichen, die Android-Besitzer täglich nutzen, von der Hintergrundunschärfe in Bildern bis hin zum Ersetzen des Hintergrunds in Videoanruf-Apps usw Live-Untertitel in Anrufen auf Pixel-Telefonen. Während maschinelles Lernen immer weiter fortgeschritten ist, gibt es laut Google immer noch einige Herausforderungen bei der Bereitstellung ML-gestützter Funktionen, darunter Bedenken hinsichtlich der Aufblähung von Apps und Leistungsschwankungen. Es gibt auch Probleme mit der Funktionsverfügbarkeit, da nicht jedes Gerät Zugriff auf dieselben APIs oder API-Versionen hat.

Bild: Google

Um dieses Problem zu lösen, kündigt Google den aktualisierbaren, vollständig integrierten ML-Inferenz-Stack für Android an, sodass es auf allen Geräten eine Reihe gemeinsamer Komponenten geben wird, die einfach zusammenarbeiten. Dies bringt App-Entwicklern folgende Vorteile:

  • Entwickler müssen keinen Code mehr für die Inferenz auf dem Gerät in ihrer eigenen App bündeln.
  • APIs für maschinelles Lernen sind stärker in Android integriert, um, sofern verfügbar, eine bessere Leistung zu liefern.
  • Google kann eine konsistente API für alle Android-Versionen und -Updates bereitstellen. Regelmäßige Updates für APIs kommen direkt von Google und sind unabhängig von Betriebssystem-Updates.

Bild: Google

Um dies zu erreichen, unternimmt Google einige Dinge. Zuerst hieß es das TensorFlow Lite für Android wird über Google Play Services auf allen Android-Geräten vorinstalliert, sodass Entwickler es nicht mehr mit ihren eigenen Apps bündeln müssen. Google fügt außerdem eine integrierte Zulassungsliste kompatibler GPUs für Android hinzu, die zur Hardwarebeschleunigung verwendet werden können. Der Suchriese führt außerdem eine „automatische Beschleunigung“ ein, die das maschinelle Lernen eines Entwicklers erfordert Modell berücksichtigt und kann prüfen, ob das Modell besser beschleunigt auf der CPU, GPU oder anderem funktioniert Beschleuniger.

Bild: Google

Als nächstes sagte Google auch, dass es NNAPI aus dem Kern-Betriebssystem-Framework entfernt, damit es über die Google Play-Dienste aktualisierbar ist. Das bedeutet, dass Entwickler dieselbe NNAPI-Spezifikation verwenden können, selbst wenn auf zwei Geräten unterschiedliche Android-Versionen ausgeführt werden. Insbesondere die NNAPI-Laufzeit wurde als hinzugefügt Hauptmodul in Android 11, was möglicherweise die Art und Weise ist, wie diese Updates bereitgestellt werden. Google arbeitet mit Qualcomm zusammen, um aktualisierbare NNAPI-Treiber auf Geräten mit Android 12 verfügbar zu machen, und neue Funktionen werden während der kommerziellen Lebensdauer eines Chipsatzes zurückportiert. Darüber hinaus Updates wird regelmäßig geliefert und wird auch mit älteren Snapdragon-Prozessoren abwärtskompatibel sein.

Verbesserungen beim maschinellen Lernen sind nur ein kleiner Bruchteil dessen, was Google diese Woche angekündigt hat. Der Suchriese stellte 2019 ein umfassendes Redesign vor Android 12 und teilte auch erste Details zur Zusammenarbeit mit Samsung mit überarbeitetes Wear OS.

\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n