Google gør maskinlæring hurtigere og mere konsekvent på Android

click fraud protection

På Google I/O 2021 talte Google om, hvordan det gør maskinlæring hurtigere og mere ensartet for udviklere på tværs af Android-enheder.

Efter gårsdagens hovedoplæg kl Google I/O 2021, afholdt virksomheden flere sessioner, der nu er tilgængelige on-demand via YouTube. En af sessionerne dækkede, hvad der er nyt inden for maskinlæring til Android, og hvordan Google gør det hurtigere og mere konsekvent for udviklere.

Maskinlæring er ansvarlig for at drive funktioner Android-ejere bruger hver dag, fra baggrundssløring i billeder, baggrundsudskiftning i videoopkaldsapps og live undertekster i opkald på Pixel-telefoner. Mens maskinlæring bliver mere og mere avanceret, sagde Google, at der stadig er flere udfordringer med at implementere ML-drevne funktioner, herunder bekymringer med app-bloat og præstationsvariationer. Der er også problemer med tilgængeligheden af ​​funktioner, fordi ikke alle enheder har adgang til de samme API'er eller API-versioner.

Billede: Google

For at løse dette annoncerer Google Androids opdaterbare, fuldt integrerede ML-inferensstack, så der vil være et sæt fælles komponenter på tværs af alle enheder, der bare arbejder sammen. Dette giver appudviklere følgende fordele:

  • Udviklere behøver ikke længere at samle kode til inferencing på enheden i deres egen app.
  • Machine learning API'er er mere integreret med Android for at levere bedre ydeevne, hvor det er muligt.
  • Google kan levere en ensartet API på tværs af Android-versioner og opdateringer. Regelmæssige opdateringer til API'er kommer direkte fra Google og eksisterer uafhængigt af OS-opdateringer.

Billede: Google

For at få dette til at ske gør Google et par ting. Først sagde den det TensorFlow Lite til Android vil blive forudinstalleret på alle Android-enheder gennem Google Play Services, så udviklere behøver ikke længere at samle det med deres egne apps. Google tilføjer også en indbygget tilladelsesliste over kompatible GPU'er på Android, der kan bruges til hardwareacceleration. Søgegiganten introducerer også "automatisk acceleration", der tager en udviklers maskinlæring model i betragtning og kan kontrollere, om modellen fungerer bedre accelereret på CPU'en, GPU'en eller andet acceleratorer.

Billede: Google

Dernæst sagde Google også, at det flytter NNAPI væk fra den centrale OS-ramme, så den kan opdateres via Google Play Services. Det betyder, at udviklere kan bruge den samme NNAPI-specifikation, selvom to enheder kører forskellige Android-versioner. Især den NNAPI køretid blev tilføjet som en Hovedlinjemodul i Android 11, hvilket muligvis er sådan, disse opdateringer bliver leveret. Google samarbejder med Qualcomm om at gøre opdaterbare NNAPI-drivere tilgængelige på enheder, der kører Android 12, og nye funktioner vil blive backporteret i den kommercielle levetid af et chipsæt. Desuden opdateringer vil blive leveret løbende og vil også være bagudkompatibel med ældre Snapdragon-processorer.

Forbedringer til maskinlæring er kun en lille brøkdel af, hvad Google annoncerede i denne uge. Søgegiganten afslørede et større redesign i Android 12 og delte også de første detaljer om sit samarbejde med Samsung til fornyet Wear OS.

\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n