A Google elválasztotta az ML Kitben található gépi tanulási API-kat a Firebase-től, és új korai hozzáférési programot jelentett be a közelgő API-k tesztelésére.
A Google széles körben használja a mesterséges intelligenciát, hogy rendkívül kontextusfüggő és pontos webes és képkeresési eredményeket szolgáltasson ki. A webes platformon végzett keresés mellett a Google gépi tanulási modelljei számos mesterséges intelligencia-alkalmazást is biztosítanak Android telefonokon, a vizuális kereséstől kezdve Google Lens nak nek számítógépes fotózás hogy a Pixel készülékek arról híresek. A Google saját alkalmazásai mellett lehetővé teszi a külső fejlesztők számára, hogy a gépi tanulási funkciókat zökkenőmentesen integrálják alkalmazásaikba az ML Kit, egy SDK (Software Development Kit) segítségével, amely a Firebase része – az online felügyeleti és elemzési irányítópult mobileszközökhöz fejlesztés. A Google mától jelentős változást jelent be az ML Kitben, és függetlenné teszi az eszközön található API-kat a Firebase-től.
Az ML Kit-et a 2018-as Google I/O rendezvényen jelentették be a gépi tanulási funkciók alkalmazásokhoz való hozzáadásának egyszerűsítése érdekében. Indítása idején az ML Kit szövegfelismerést, arcfelismerést, vonalkód-leolvasást, képcímkézést és tereptárgy-felismerő API-kat tartalmazott. Ban ben 2019 áprilisában a Google bemutatta első természetes nyelvi feldolgozási (NLP) API-it a fejlesztőknek szánt SDK-ban Smart Reply és Language formájában Azonosítás. Egy hónappal később, azaz a 2019-es Google I/O-n A Google három új ML API-t mutatott be eszközön történő fordításhoz, objektumészleléshez és követéshez, valamint a AutoML Vision Edge API konkrét tárgyak, például virágok vagy ételek azonosítására vizuális keresés segítségével.
Az ML Kit mind az eszközön, mind a felhő alapú API-kat tartalmaz. Ahogy az várható volt, az eszközön lévő API-k az eszközre mentett gépi tanulási modellek segítségével dolgozzák fel az adatokat magát, miközben a felhő alapú API-k adatokat küldenek a Google Cloud Platformon tárolt gépi tanulási modelleknek, és az interneten keresztül fogadják a megoldott adatokat. kapcsolat. Mivel az eszközön lévő API-k internet nélkül futnak, gyorsabban tudják elemezni az információkat, és biztonságosabbak, mint felhőalapú társaik. Az eszközön lévő gépi tanulási API-k hardveresen is gyorsíthatók Android Oreo 8.1 vagy újabb verziót futtató Android-eszközökön és lefutja a Google Neural Networks API-ját (NNAPI) a legújabb lapkakészleteken található speciális számítási blokkokkal vagy NPU-kkal együtt tól től Qualcomm, MediaTek, HiSilicon stb.
A Google nemrég közzétett egy blog bejegyzés bejelentette, hogy az ML Kit eszközön található API-i mostantól egy független SDK részeként lesznek elérhetők. Ez az ML Kitben az eszközön található API-kat jelent – beleértve a szövegfelismerést, vonalkód-leolvasást, arcfelismerést, képcímkézést, tárgyfelismerést és nyomon követés, nyelvi azonosítás, intelligens válasz és az eszközön belüli fordítás – külön SDK alatt lesz elérhető, amely anélkül érhető el Firebase. A Google azonban javasolja az ML Kit SDK használatát a Firebase-ben migrálják meglévő projektjeit az új önálló SDK-ra. Egy új mikrooldal az ML Kithez kapcsolódó összes erőforrással elindult.
Az új SDK-n kívül a Google bejelentett néhány változtatást, amelyek megkönnyítik a fejlesztők számára a gépi tanulási modellek alkalmazásaikba való integrálását. Először is, az Arcfelismerési/kontúrmodell mostantól a Google Play Services részeként kerül szállításra, így a fejlesztőknek nem kell külön klónozniuk az API-t és a modellt alkalmazásaikhoz. Ez lehetővé teszi az alkalmazáscsomag kisebb méretét, és a modell zökkenőmentesen történő újrafelhasználását más alkalmazásokban.
Másodszor, a Google hozzátette Android Jetpack életciklusa támogatja az összes API-t. Ez segít az API-k használatának kezelésében, amikor egy alkalmazás képernyő elforgatáson megy keresztül, vagy ha a felhasználó bezárja. Ezenkívül megkönnyíti a CameraX Jetpack könyvtár az ML Kit-et használó alkalmazásokban.
Harmadszor, a Google bejelentette egy korai hozzáférési program hogy a fejlesztők a többiek előtt hozzáférhessenek a közelgő API-khoz és funkciókhoz. A vállalat most két új API-t ad hozzá az ML Kithez, hogy a kiválasztott fejlesztők megtekinthessék azokat, és megosszák visszajelzéseiket. Ezek az API-k a következőket tartalmazzák:
- Entitáskivonás olyan dolgok észlelésére, mint a telefonszámok, címek, fizetési számok, nyomkövetési számok, dátum és idő a szövegben, és
- Pózérzékelés 33 csontvázpont alacsony késleltetésű észlelésére, beleértve a kezet és a lábat is
Végül a Google most lehetővé teszi a fejlesztők számára, hogy az ML Kit meglévő képcímkézési, valamint objektumészlelési és nyomkövetési API-jait egyéni gépi tanulási modellekre cseréljék. TensorFlow Lite. A vállalat hamarosan további részleteket közöl a TensorFlow Lite modellek megtalálásáról vagy klónozásáról, és az ML Kit vagy az Android Studio új ML integrációs funkcióival történő betanításáról.