Google oddělil API pro strojové učení na zařízení v ML Kitu od Firebase a oznámil nový program Early Access pro testování nadcházejících API.
Google ve velké míře využívá umělou inteligenci k poskytování vysoce kontextových a přesných výsledků vyhledávání na webu a v obrázcích. Kromě Vyhledávání na webové platformě poskytují modely strojového učení Google také různé aplikace umělé inteligence na telefonech Android, od vizuálního vyhledávání na Google Lens na výpočetní fotografie kterými jsou zařízení Pixel známá. Kromě vlastních aplikací umožňuje Google také vývojářům třetích stran bezproblémově integrovat funkce strojového učení do svých aplikací pomocí sady ML Kit, SDK (Software Development Kit), která je součástí Firebase – jejího online řídicího a analytického panelu pro mobilní zařízení rozvoj. Ode dneška Google oznamuje zásadní změnu sady ML Kit a učiní rozhraní API na zařízení nezávislá na Firebase.
ML Kit byl oznámen na Google I/O 2018 zjednodušit přidávání funkcí strojového učení do aplikací. V době svého uvedení na trh se ML Kit skládal z rozhraní API pro rozpoznávání textu, detekci obličeje, skenování čárových kódů, označování obrázků a rozpoznávání orientačních bodů. v V dubnu 2019 představil Google své první API pro zpracování přirozeného jazyka (NLP) do SDK pro vývojáře ve formě chytrých odpovědí a jazyka. Identifikace. O měsíc později, tj. na Google I/O 2019,
Google představil tři nová ML API pro překlad na zařízení, detekci a sledování objektů a AutoML Vision Edge API pro identifikaci konkrétních objektů, jako jsou druhy květin nebo potravin pomocí vizuálního vyhledávání.ML Kit obsahuje rozhraní API na zařízení i cloud. Jak byste očekávali, rozhraní API na zařízení zpracovávají data pomocí modelů strojového učení uložených v zařízení sama, zatímco cloudová rozhraní API odesílají data do modelů strojového učení hostovaných na cloudové platformě Google a přijímají vyřešená data přes internet spojení. Protože rozhraní API na zařízení běží bez internetu, mohou analyzovat informace rychleji a jsou bezpečnější než jejich cloudové protějšky. Rozhraní API strojového učení na zařízení lze také hardwarově akcelerovat na zařízeních Android se systémem Android Oreo 8.1 a vyšším a spustit Google Neural Networks API (NNAPI) spolu se speciálními výpočetními bloky nebo NPU nalezenými na nejnovějších čipových sadách z Qualcomm, MediaTek, HiSilicon atd.
Google nedávno zveřejnil a blogový příspěvek oznamuje, že rozhraní API na zařízení ze sady ML Kit budou nyní k dispozici jako součást nezávislé sady SDK. To znamená rozhraní API na zařízení v ML Kit – včetně rozpoznávání textu, skenování čárových kódů, detekce obličeje, označování obrázků, detekce objektů a sledování, identifikace jazyka, chytrá odpověď a překlad na zařízení – budou k dispozici v rámci samostatné sady SDK, ke které lze přistupovat bez Firebase. Google však doporučuje používat sadu ML Kit SDK ve Firebase migrovat své stávající projekty do nového samostatného SDK. Nový microsite byla spuštěna se všemi zdroji souvisejícími s ML Kit.
Kromě nové sady SDK oznámil Google některé změny, které vývojářům usnadňují integraci modelů strojového učení do jejich aplikací. Za prvé, model detekce obličeje/kontury je nyní dodáván jako součást Služeb Google Play, takže vývojáři nemusí pro své aplikace klonovat rozhraní API a model zvlášť. To umožňuje menší velikost balíčku aplikace a možnost bezproblémovějšího opětovného použití modelu v jiných aplikacích.
Za druhé, Google přidal Životní cyklus Android Jetpack podpora všech API. To pomůže při správě používání rozhraní API, když aplikace prochází otočením obrazovky nebo je zavřena uživatelem. Kromě toho také usnadňuje snadnou integraci Knihovna CameraX Jetpack v aplikacích, které používají ML Kit.
Za třetí, Google oznámil program včasného přístupu aby vývojáři mohli získat přístup k připravovaným rozhraním API a funkcím dříve, než ostatní. Společnost nyní přidává dvě nová rozhraní API do sady ML Kit pro vybrané vývojáře, aby si je mohli prohlédnout a sdílet zpětnou vazbu. Mezi tato rozhraní API patří:
- Extrakce entity zjišťovat věci, jako jsou telefonní čísla, adresy, platební čísla, sledovací čísla a datum a čas v textu a
- Detekce pozice pro detekci 33 kosterních bodů s nízkou latencí, včetně rukou a nohou
A konečně, Google nyní umožňuje vývojářům nahradit stávající rozhraní Image Labeling a API pro detekci a sledování objektů ze sady ML Kit vlastními modely strojového učení od společnosti TensorFlow Lite. Společnost brzy oznámí další podrobnosti o tom, jak najít nebo klonovat modely TensorFlow Lite a trénovat je pomocí sady ML Kit nebo nových funkcí integrace ML aplikace Android Studio.