Op Google I/O 2021 sprak Google over hoe het machine learning sneller en consistenter maakt voor ontwikkelaars op Android-apparaten.
Na de hoofdpresentatie van gisteren op Google I/O 2021, hield het bedrijf verschillende sessies die nu on-demand beschikbaar zijn via YouTube. In een van de sessies werd besproken wat er nieuw is op het gebied van machine learning voor Android en hoe Google dit sneller en consistenter maakt voor ontwikkelaars.
Machine learning is verantwoordelijk voor het mogelijk maken van functies die Android-bezitters elke dag gebruiken, van achtergrondonscherpte in afbeeldingen, achtergrondvervanging in apps voor videogesprekken en live ondertiteling tijdens gesprekken op Pixel-telefoons. Hoewel machine learning steeds geavanceerder wordt, zegt Google dat er nog steeds verschillende uitdagingen zijn bij het implementeren van ML-functies, waaronder zorgen over app-bloat en prestatievariatie. Er zijn ook problemen met de beschikbaarheid van functies, omdat niet elk apparaat toegang heeft tot dezelfde API's of API-versies.
Afbeelding: Google
Om dit op te lossen kondigt Google de updatebare, volledig geïntegreerde ML-inferentiestapel van Android aan, zodat er een reeks gemeenschappelijke componenten op alle apparaten zal zijn die gewoon samenwerken. Dit brengt de volgende voordelen met zich mee voor app-ontwikkelaars:
- Ontwikkelaars hoeven niet langer code te bundelen voor inferentie op het apparaat in hun eigen app.
- API's voor machine learning zijn meer geïntegreerd met Android om waar mogelijk betere prestaties te leveren.
- Google kan een consistente API bieden voor alle Android-versies en -updates. Regelmatige updates van API's komen rechtstreeks van Google en bestaan onafhankelijk van OS-updates.
Afbeelding: Google
Om dit mogelijk te maken, doet Google een aantal dingen. Ten eerste werd dat gezegd TensorFlow Lite voor Android wordt vooraf geïnstalleerd op alle Android-apparaten via Google Play Services, zodat ontwikkelaars het niet langer hoeven te bundelen met hun eigen apps. Google voegt ook een ingebouwde toelatingslijst toe met compatibele GPU's op Android die kunnen worden gebruikt voor hardwareversnelling. De zoekgigant introduceert ook ‘automatische versnelling’ waarbij machine learning van een ontwikkelaar nodig is model rekening houden en kan controleren of het model versneld beter werkt op de CPU, GPU of iets anders versnellers.
Afbeelding: Google
Vervolgens zei Google ook dat het NNAPI weghaalt van het kernbesturingssysteem, zodat het kan worden bijgewerkt via Google Play Services. Dat betekent dat ontwikkelaars dezelfde NNAPI-specificatie kunnen gebruiken, zelfs als twee apparaten verschillende Android-versies gebruiken. Met name de NNAPI-runtime werd toegevoegd als een Hoofdlijnmodule in Android 11, wat mogelijk de manier is waarop deze updates worden geleverd. Google werkt samen met Qualcomm om updatebare NNAPI-stuurprogramma's beschikbaar te maken op apparaten met Android 12, en nieuwe functies zullen worden ondersteund gedurende de commerciële levensduur van een chipset. Verder updates zal regelmatig geleverd worden en zal ook achterwaarts compatibel zijn met oudere Snapdragon-processors.
Verbeteringen op het gebied van machinaal leren zijn slechts een klein deel van wat Google deze week heeft aangekondigd. De zoekgigant onthulde een ingrijpend herontwerp in Androïde 12 en deelde ook de eerste details over de samenwerking met Samsung vernieuwd Wear-besturingssysteem.
\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n