Google отдели API за машинно обучение на устройството в ML Kit от Firebase и обяви нова програма за ранен достъп за тестване на предстоящи API.
Google използва масово изкуствен интелект, за да обслужва изключително контекстуални и точни резултати от търсене в мрежата и изображения. Освен Търсене в уеб платформата, моделите за машинно обучение на Google също предоставят разнообразие от AI приложения на телефони с Android, вариращи от визуалното търсене до Google Lens да се компютърна фотография с които устройствата Pixel са известни. Освен собствените си приложения, Google също позволява на разработчици на трети страни да интегрират функции за машинно обучение в своите приложения безпроблемно с помощта на ML Kit, SDK (комплект за разработка на софтуер), който е част от Firebase – неговото онлайн табло за управление и анализи за мобилни устройства развитие. От днес Google обявява голяма промяна в ML Kit и ще направи API на устройството независими от Firebase.
ML Kit беше обявен на Google I/O 2018
за да се опрости добавянето на функции за машинно обучение към приложенията. По време на стартирането си ML Kit се състоеше от разпознаване на текст, разпознаване на лица, сканиране на баркод, етикетиране на изображения и API за разпознаване на забележителности. в Април 2019 г. Google представи своите първи API за обработка на естествен език (NLP) към SDK за разработчици под формата на интелигентен отговор и език Идентификация. Месец по-късно, т.е. на Google I/O 2019, Google представи три нови API за ML за превод на устройството, откриване и проследяване на обекти и API на AutoML Vision Edge за идентифициране на конкретни обекти като видове цветя или храна чрез визуално търсене.ML Kit включва API както на устройството, така и на облак. Както бихте очаквали, API на устройството обработва данни, използвайки моделите за машинно обучение, записани на устройството себе си, докато базираните в облак API изпращат данни до модели за машинно обучение, хоствани в облачната платформа на Google, и получават разрешените данни през интернет Връзка. Тъй като приложните програмни интерфейси на устройството работят без интернет, те могат да анализират информация по-бързо и са по-сигурни от своите колеги, базирани на облак. API за машинно обучение на устройството също могат да бъдат хардуерно ускорени на устройства с Android, работещи с Android Oreo 8.1 и по-нова версия и работи от API на Google за невронни мрежи (NNAPI) заедно със специални изчислителни блокове или NPU, намиращи се в най-новите чипсети от Qualcomm, MediaTek, HiSilicon и др.
Google наскоро публикува a блог пост обявявайки, че API-тата на устройството от ML Kit вече ще бъдат достъпни като част от независим SDK. Това означава API на устройството в ML Kit – включително разпознаване на текст, сканиране на баркод, разпознаване на лица, етикетиране на изображения, разпознаване на обекти и проследяване, езикова идентификация, интелигентен отговор и превод на устройството – ще бъдат достъпни под отделен SDK, който може да бъде достъпен без Firebase. Google обаче препоръчва използването на ML Kit SDK във Firebase за мигрират своите съществуващи проекти към новия самостоятелен SDK. Нов микросайт е стартиран с всички ресурси, свързани с ML Kit.
Освен новия SDK, Google обяви някои промени, които улесняват разработчиците да интегрират модели за машинно обучение в своите приложения. Първо, моделът за разпознаване на лице/контур вече се доставя като част от услугите на Google Play, така че разработчиците не трябва да клонират API и модела отделно за своите приложения. Това позволява по-малък размер за пакета на приложението и възможност за повторно използване на модела в други приложения по-безпроблемно.
Второ, Google добави Жизнен цикъл на Android Jetpack поддръжка на всички API. Това ще помогне при управлението на използването на API, когато дадено приложение е подложено на завъртане на екрана или е затворено от потребителя. В допълнение, той също така улеснява лесното интегриране на Библиотека CameraX Jetpack в приложения, които използват ML Kit.
Трето, Google обяви програма за ранен достъп така че разработчиците да могат да получат достъп до предстоящите API и функции преди останалите. Сега компанията добавя два нови API в ML Kit за избрани разработчици, за да ги визуализират и да споделят отзивите си. Тези API включват:
- Извличане на обект за откриване на неща като телефонни номера, адреси, номера на плащане, номера за проследяване и дата и час в текст, и
- Откриване на поза за откриване с ниска латентност на 33 скелетни точки, включително ръце и крака
И накрая, Google вече позволява на разработчиците да заменят съществуващото етикетиране на изображения, както и API за откриване и проследяване на обекти от ML Kit с персонализирани модели за машинно обучение от TensorFlow Lite. Компанията скоро ще обяви повече подробности за това как да намерите или клонирате модели TensorFlow Lite и да ги обучите с помощта на ML Kit или новите функции за интегриране на ML на Android Studio.