Google ločuje API-je v napravi ML Kit od Firebase

Google je ločil API-je za strojno učenje v napravi v ML Kit od Firebase in napovedal nov program zgodnjega dostopa za testiranje prihajajočih API-jev.

Google obširno uporablja umetno inteligenco za zagotavljanje zelo kontekstualnih in natančnih rezultatov iskanja po spletu in slikah. Poleg iskanja na spletni platformi Googlovi modeli strojnega učenja zagotavljajo tudi različne aplikacije AI na telefonih Android, od vizualnega iskanja do Google Lens do računalniška fotografija po katerem slovijo naprave Pixel. Poleg lastnih aplikacij Google razvijalcem tretjih oseb omogoča tudi nemoteno integracijo funkcij strojnega učenja v svoje aplikacije z pomoč ML Kit, SDK (Software Development Kit), ki je del Firebase – njegove nadzorne plošče za spletno upravljanje in analitiko za mobilne naprave razvoj. Z današnjim dnem Google napoveduje veliko spremembo ML Kit in bo naredil API-je v napravi neodvisne od Firebase.

ML Kit je bil najavljen na Google I/O 2018 za poenostavitev dodajanja funkcij strojnega učenja v aplikacije. V času lansiranja je ML Kit obsegal prepoznavanje besedila, zaznavanje obrazov, skeniranje črtne kode, označevanje slik in API-je za prepoznavanje znamenitosti. notri Aprila 2019 je Google predstavil svoje prve API-je za obdelavo naravnega jezika (NLP) v SDK za razvijalce v obliki pametnega odgovora in jezika. Identifikacija. Mesec dni pozneje, torej na Google I/O 2019,

Google je predstavil tri nove API-je ML za prevajanje v napravi, zaznavanje in sledenje predmetov ter AutoML Vision Edge API za prepoznavanje določenih predmetov, kot so vrste rož ali hrane, z uporabo vizualnega iskanja.

ML Kit vključuje API-je v napravi in ​​v oblaku. Kot bi pričakovali, API-ji v napravi obdelujejo podatke z uporabo modelov strojnega učenja, shranjenih v napravi medtem ko API-ji v oblaku pošiljajo podatke modelom strojnega učenja, ki gostujejo v Googlovi platformi v oblaku, in prejemajo razrešene podatke prek interneta povezava. Ker API-ji v napravi delujejo brez interneta, lahko hitreje razčlenijo informacije in so bolj varni kot njihovi primerki v oblaku. API-je za strojno učenje v napravi je mogoče strojno pospešiti tudi v napravah Android s sistemom Android Oreo 8.1 ali novejšim in delujejo iz Googlovega API-ja za nevronske mreže (NNAPI) skupaj s posebnimi računalniškimi bloki ali NPU-ji, ki jih najdemo na najnovejših naborih čipov od Qualcomm, MediaTek, HiSilicon itd.

Google je nedavno objavil a blog objava napoveduje, da bodo API-ji v napravi iz ML Kit zdaj na voljo kot del neodvisnega SDK-ja. To pomeni API-je v napravi v kompletu ML Kit – vključno s prepoznavanjem besedila, skeniranjem črtne kode, zaznavanjem obrazov, označevanjem slik, zaznavanjem predmetov in sledenje, prepoznavanje jezika, pametni odgovor in prevajanje v napravi – bodo na voljo v ločenem SDK-ju, do katerega lahko dostopate brez Firebase. Vendar pa Google priporoča uporabo ML Kit SDK v Firebase za preselijo svoje obstoječe projekte v novi samostojni SDK. Nov mikrostran je bil predstavljen z vsemi viri, povezanimi z ML Kit.

Poleg novega SDK-ja je Google napovedal nekatere spremembe, ki bodo razvijalcem olajšale integracijo modelov strojnega učenja v njihove aplikacije. Prvič, model zaznavanja obraza/konture je zdaj na voljo kot del storitev Google Play, tako da razvijalcem ni treba posebej klonirati API-ja in modela za svoje aplikacije. To omogoča manjšo velikost paketa aplikacij in možnost nemotenejše ponovne uporabe modela v drugih aplikacijah.

Drugič, Google je dodal Življenjski cikel Android Jetpack podpora vsem API-jem. To bo pomagalo pri upravljanju uporabe API-jev, ko je aplikacija podvržena obračanju zaslona ali jo uporabnik zapre. Poleg tega omogoča enostavno integracijo Knjižnica CameraX Jetpack v aplikacijah, ki uporabljajo ML Kit.

Tretjič, Google je napovedal program zgodnjega dostopa tako da lahko razvijalci dobijo dostop do prihajajočih API-jev in funkcij pred ostalimi. Podjetje zdaj dodaja dva nova API-ja v ML Kit za izbrane razvijalce, da ju lahko predogledajo in delijo svoje povratne informacije. Ti API-ji vključujejo:

  • Ekstrakcija entitete za zaznavanje stvari, kot so telefonske številke, naslovi, številke plačil, sledilne številke ter datum in čas v besedilu ter
  • Zaznavanje poze za zaznavanje z nizko zakasnitvijo 33 skeletnih točk, vključno z rokami in nogami

Nazadnje, Google zdaj razvijalcem omogoča zamenjavo obstoječih API-jev za označevanje slik ter API-je za zaznavanje in sledenje predmetov iz kompleta ML Kit z modeli strojnega učenja po meri iz TensorFlow Lite. Podjetje bo kmalu objavilo več podrobnosti o tem, kako najti ali klonirati modele TensorFlow Lite in jih usposobiti z uporabo ML Kit ali novih funkcij integracije ML v Android Studio.