Podczas konferencji Google I/O 2021 firma Google opowiadała o tym, jak dzięki temu uczenie maszynowe staje się szybsze i bardziej spójne dla programistów korzystających z urządzeń z Androidem.
Po wczorajszej głównej prezentacji o godz We/Wy Google 2021, firma zorganizowała kilka sesji, które są obecnie dostępne na żądanie w serwisie YouTube. Jedna z sesji dotyczyła nowości w uczeniu maszynowym dla Androida oraz tego, jak Google sprawia, że jest ono szybsze i bardziej spójne dla programistów.
Uczenie maszynowe odpowiada za obsługę funkcji, z których na co dzień korzystają właściciele Androida, takich jak rozmycie tła w obrazach, zastępowanie tła w aplikacjach do rozmów wideo i napisy na żywo w rozmowach na telefonach Pixel. Chociaż uczenie maszynowe staje się coraz bardziej zaawansowane, Google stwierdziło, że wdrażanie funkcji opartych na technologii ML nadal wiąże się z kilkoma wyzwaniami, w tym problemami związanymi z rozdęciem aplikacji i wahaniami wydajności. Występują również problemy z dostępnością funkcji, ponieważ nie każde urządzenie ma dostęp do tych samych interfejsów API lub wersji API.
Obraz: Google
Aby rozwiązać ten problem, Google ogłasza aktualizowalny, w pełni zintegrowany stos wnioskowania ML dla Androida, dzięki czemu będzie dostępny zestaw wspólnych komponentów dla wszystkich urządzeń, które po prostu ze sobą współpracują. Daje to następujące korzyści twórcom aplikacji:
- Programiści nie muszą już łączyć kodu do wnioskowania na urządzeniu we własnej aplikacji.
- Interfejsy API uczenia maszynowego są bardziej zintegrowane z systemem Android, aby zapewnić lepszą wydajność, jeśli jest to możliwe.
- Google może zapewnić spójny interfejs API dla wszystkich wersji i aktualizacji Androida. Regularne aktualizacje interfejsów API pochodzą bezpośrednio od Google i istnieją niezależnie od aktualizacji systemu operacyjnego.
Obraz: Google
Aby tak się stało, Google robi kilka rzeczy. Po pierwsze, tak zostało powiedziane TensorFlow Lite na Androida będzie preinstalowany na wszystkich urządzeniach z Androidem za pośrednictwem Usług Google Play, więc programiści nie będą już musieli dołączać go do własnych aplikacji. Google dodaje także wbudowaną listę dozwolonych zgodnych procesorów graficznych w systemie Android, których można używać do przyspieszania sprzętowego. Gigant wyszukiwarek wprowadza także „automatyczne przyspieszanie”, które wymaga uczenia maszynowego programisty modelu pod uwagę i może sprawdzić, czy model działa lepiej przy przyspieszeniu na CPU, GPU lub innym akceleratory.
Obraz: Google
Następnie Google oświadczyło również, że odsuwa NNAPI od podstawowego szkieletu systemu operacyjnego, aby można było go aktualizować za pośrednictwem Usług Google Play. Oznacza to, że programiści mogą używać tej samej specyfikacji NNAPI, nawet jeśli na dwóch urządzeniach działają różne wersje Androida. Warto zauważyć, że Środowisko wykonawcze NNAPI został dodany jako Moduł główny w systemie Android 11 i prawdopodobnie w ten sposób dostarczane są te aktualizacje. Google współpracuje z firmą Qualcomm, aby udostępnić aktualizowalne sterowniki NNAPI na urządzeniach z systemem Android 12, a nowe funkcje będą przenoszone przez cały komercyjny okres użytkowania chipsetu. Ponadto aktualizacje będą regularnie dostarczane i będzie także wstecznie kompatybilny ze starszymi procesorami Snapdragon.
Ulepszenia uczenia maszynowego to tylko niewielki ułamek tego, co Google ogłosił w tym tygodniu. Gigant wyszukiwania zaprezentował poważną przebudowę w Androida 12 a także podzieliła się pierwszymi szczegółami na temat swojej współpracy z Samsungiem ulepszony system operacyjny Wear.
\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n