På Google I/O 2021 snakket Google om hvordan det gjør maskinlæring raskere og mer konsistent for utviklere på tvers av Android-enheter.
Etter gårsdagens hovedpresentasjon kl Google I/O 2021, holdt selskapet flere økter som nå er tilgjengelige på forespørsel via YouTube. En av øktene dekket hva som er nytt innen maskinlæring for Android og hvordan Google gjør det raskere og mer konsistent for utviklere.
Maskinlæring er ansvarlig for å drive funksjoner Android-eiere bruker hver dag, fra bakgrunnsuskarphet i bilder, bakgrunnserstatning i apper for videosamtaler og direkteteksting i samtaler på Pixel-telefoner. Mens maskinlæring blir mer og mer avansert, sa Google at det fortsatt er flere utfordringer med å distribuere ML-drevne funksjoner, inkludert bekymringer med appoppblåsing og ytelsesvariasjoner. Det er også problemer med tilgjengeligheten av funksjoner fordi ikke alle enheter har tilgang til de samme API-ene eller API-versjonene.
Bilde: Google
For å løse dette kunngjør Google Androids oppdaterbare, fullt integrerte ML-inferensstabel slik at det vil være et sett med felles komponenter på tvers av alle enheter som bare fungerer sammen. Dette gir apputviklere følgende fordeler:
- Utviklere trenger ikke lenger å samle kode for slutninger på enheten i sin egen app.
- Maskinlærings-APIer er mer integrert med Android for å levere bedre ytelse der det er tilgjengelig.
- Google kan tilby en konsistent API på tvers av Android-versjoner og oppdateringer. Vanlige oppdateringer til APIer kommer direkte fra Google og eksisterer uavhengig av OS-oppdateringer.
Bilde: Google
For å få dette til å skje, gjør Google et par ting. Først sa den det TensorFlow Lite for Android skal forhåndsinstalleres på alle Android-enheter gjennom Google Play-tjenester, slik at utviklere ikke lenger trenger å kombinere det med sine egne apper. Google legger også til en innebygd godkjenningsliste over kompatible GPUer på Android som kan brukes til maskinvareakselerasjon. Søkegiganten introduserer også "automatisk akselerasjon" som tar en utvikleres maskinlæring modell i betraktning og kan sjekke om modellen fungerer bedre akselerert på CPU, GPU eller annet akseleratorer.
Bilde: Google
Deretter sa Google også at det flytter NNAPI bort fra kjernen OS-rammeverket slik at det kan oppdateres gjennom Google Play Services. Det betyr at utviklere kan bruke samme NNAPI-spesifikasjon selv om to enheter kjører forskjellige Android-versjoner. Spesielt NNAPI kjøretid ble lagt til som en Hovedlinjemodul i Android 11, som muligens er hvordan disse oppdateringene blir levert. Google samarbeider med Qualcomm for å gjøre oppdaterbare NNAPI-drivere tilgjengelige på enheter som kjører Android 12, og nye funksjoner vil bli tilbakeportert for den kommersielle levetiden til et brikkesett. I tillegg oppdateringer vil bli levert regelmessig og vil også være bakoverkompatibel med eldre Snapdragon-prosessorer også.
Forbedringer av maskinlæring er bare en liten brøkdel av det Google annonserte denne uken. Søkegiganten avduket en stor redesign i Android 12 og delte også de første detaljene om samarbeidet med Samsung til fornyet Wear OS.
\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n