Google gör maskininlärning snabbare och mer konsekvent på Android

click fraud protection

På Google I/O 2021 pratade Google om hur det gör maskininlärning snabbare och mer konsekvent för utvecklare på alla Android-enheter.

Efter gårdagens huvudpresentation kl Google I/O 2021höll företaget flera sessioner som nu är tillgängliga på begäran via YouTube. En av sessionerna behandlade vad som är nytt inom maskininlärning för Android och hur Google gör det snabbare och mer konsekvent för utvecklare.

Maskininlärning är ansvarig för att driva funktioner som Android-ägare använder varje dag, från bakgrundsoskärpa i bilder, bakgrundsersättning i appar för videosamtal och livetextning i samtal på Pixel-telefoner. Medan maskininlärning blir mer och mer avancerad, sa Google att det fortfarande finns flera utmaningar med att distribuera ML-drivna funktioner, inklusive problem med app-bloat och prestandavariationer. Det finns också problem med funktionstillgänglighet eftersom inte alla enheter har tillgång till samma API: er eller API-versioner.

Bild: Google

För att lösa detta tillkännager Google Androids uppdateringsbara, helt integrerade ML-inferensstack så det kommer att finnas en uppsättning gemensamma komponenter på alla enheter som bara fungerar tillsammans. Detta ger apputvecklare följande fördelar:

  • Utvecklare behöver inte längre bunta kod för slutledning på enheten i sin egen app.
  • Maskininlärnings-API: er är mer integrerade med Android för att leverera bättre prestanda där det är tillgängligt.
  • Google kan tillhandahålla ett konsekvent API för Android-versioner och uppdateringar. Regelbundna uppdateringar av API: er kommer direkt från Google och existerar oberoende av OS-uppdateringar.

Bild: Google

För att få detta att hända gör Google några saker. Först stod det så TensorFlow Lite för Android kommer att förinstalleras på alla Android-enheter via Google Play Services så att utvecklare inte längre behöver kombinera det med sina egna appar. Google lägger också till en inbyggd godkännandelista över kompatibla GPU: er på Android som kan användas för hårdvaruacceleration. Sökjätten introducerar också "automatisk acceleration" som kräver en utvecklares maskininlärning modell beaktas och kan kontrollera om modellen fungerar bättre accelererat på CPU, GPU eller annat acceleratorer.

Bild: Google

Därefter sa Google också att det flyttar NNAPI bort från det centrala OS-ramverket så att det är uppdateringsbart via Google Play Services. Det betyder att utvecklare kan använda samma NNAPI-specifikation även om två enheter kör olika Android-versioner. Särskilt den NNAPI körtid lades till som en Huvudlinjemodul i Android 11, vilket möjligen är hur dessa uppdateringar levereras. Google samarbetar med Qualcomm för att göra uppdateringsbara NNAPI-drivrutiner tillgängliga på enheter som kör Android 12, och nya funktioner kommer att backporteras under den kommersiella livslängden för ett chipset. Dessutom uppdateringar kommer att levereras regelbundet och kommer också att vara bakåtkompatibel med äldre Snapdragon-processorer också.

Förbättringar av maskininlärning är bara en liten bråkdel av vad Google tillkännagav den här veckan. Sökjätten avslöjade en stor omdesign i Android 12 och delade också de första detaljerna om sitt samarbete med Samsung till förnyat Wear OS.

\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n