Google odvaja API-je ML Kit-a na uređaju od Firebasea

Google je odvojio API-je za strojno učenje na uređaju u ML Kitu od Firebasea i najavio novi program ranog pristupa za testiranje nadolazećih API-ja.

Google intenzivno koristi umjetnu inteligenciju za pružanje vrlo kontekstualnih i točnih rezultata pretraživanja weba i slika. Osim pretraživanja na web platformi, Googleovi modeli strojnog učenja također pružaju niz AI aplikacija na Android telefonima, od vizualnog pretraživanja do Google objektiv do računalna fotografija po čemu su Pixel uređaji poznati. Osim vlastitih aplikacija, Google također omogućuje programerima trećih strana da integriraju značajke strojnog učenja u svoje aplikacije neprimjetno s pomoć ML Kita, SDK-a (Software Development Kit) koji je dio Firebasea – njegove nadzorne ploče za online upravljanje i analitiku za mobilne uređaje razvoj. Google od danas najavljuje veliku promjenu ML Kita i učinit će API-je na uređaju neovisnima o Firebaseu.

ML Kit najavljen je na Google I/O 2018 kako bi se pojednostavilo dodavanje značajki strojnog učenja u aplikacije. U vrijeme pokretanja, ML Kit sastojao se od API-ja za prepoznavanje teksta, prepoznavanje lica, skeniranje crtičnog koda, označavanje slika i prepoznavanje orijentira. U U travnju 2019. Google je predstavio svoje prve API-je za obradu prirodnog jezika (NLP) u SDK-u za programere u obliku pametnog odgovora i jezika Identifikacija. Mjesec dana kasnije, odnosno na Google I/O 2019.

Google je predstavio tri nova ML API-ja za prevođenje na uređaju, otkrivanje i praćenje objekata i AutoML Vision Edge API za prepoznavanje određenih objekata poput vrsta cvijeća ili hrane pomoću vizualnog pretraživanja.

ML Kit sadrži API-je na uređaju i API-je temeljene na oblaku. Kao što biste očekivali, API-ji na uređaju obrađuju podatke pomoću modela strojnog učenja spremljenih na uređaju dok API-ji temeljeni na oblaku šalju podatke modelima strojnog učenja koji se nalaze na Googleovoj Cloud Platformi i primaju riješene podatke putem interneta veza. Budući da API-ji na uređaju rade bez interneta, oni mogu brže analizirati informacije i sigurniji su od svojih analoga temeljenih na oblaku. API-ji za strojno učenje na uređaju također se mogu hardverski ubrzati na Android uređajima sa sustavom Android Oreo 8.1 ili novijim i pokrenuti Googleov API za neuronske mreže (NNAPI) zajedno s posebnim računalnim blokovima ili NPU-ovima koji se nalaze na najnovijim skupovima čipova iz Qualcomm, MediaTek, HiSilicon itd.

Google je nedavno objavio post na blogu najavljujući da će API-ji na uređaju iz ML Kit-a sada biti dostupni kao dio neovisnog SDK-a. To znači API-je na uređaju u ML Kitu – uključujući prepoznavanje teksta, skeniranje crtičnog koda, prepoznavanje lica, označavanje slika, prepoznavanje objekata i praćenje, identifikacija jezika, pametni odgovor i prijevod na uređaju – bit će dostupni pod zasebnim SDK-om kojem se može pristupiti bez Firebase. Google, međutim, preporučuje korištenje ML Kit SDK-a u Firebaseu za migriraju svoje postojeće projekte na novi samostalni SDK. Nova mikrostranica je pokrenut sa svim resursima vezanim uz ML Kit.

Osim novog SDK-a, Google je najavio neke promjene koje programerima olakšavaju integraciju modela strojnog učenja u njihove aplikacije. Prvo, model detekcije/konture lica sada se isporučuje kao dio Google Play usluga tako da programeri ne moraju zasebno klonirati API i model za svoje aplikacije. To omogućuje manju veličinu za paket aplikacije i mogućnost ponovne upotrebe modela unutar drugih aplikacija na neprimjetan način.

Drugo, Google je dodao Životni ciklus Android Jetpacka podrška za sve API-je. To će pomoći u upravljanju upotrebom API-ja kada aplikacija prolazi kroz rotaciju zaslona ili je korisnik zatvori. Osim toga, također olakšava jednostavnu integraciju Biblioteka CameraX Jetpack u aplikacijama koje koriste ML Kit.

Treće, Google je najavio program ranog pristupa kako bi programeri prije ostalih mogli dobiti pristup nadolazećim API-jima i značajkama. Tvrtka sada dodaje dva nova API-ja u ML Kit za odabrane programere kako bi ih pregledali i podijelili svoje povratne informacije. Ovi API-ji uključuju:

  • Ekstrakcija entiteta za otkrivanje stvari kao što su telefonski brojevi, adrese, brojevi plaćanja, brojevi za praćenje te datum i vrijeme u tekstu, i
  • Detekcija poze za detekciju niske latencije 33 skeletne točke, uključujući ruke i stopala

Na kraju, Google sada dopušta razvojnim programerima da zamijene postojeće API-je za označavanje slika kao i API-je za otkrivanje i praćenje objekata iz ML Kita prilagođenim modelima strojnog učenja iz TensorFlow Lite. Tvrtka će uskoro objaviti više detalja o tome kako pronaći ili klonirati TensorFlow Lite modele i obučiti ih pomoću ML Kita ili novih značajki integracije ML-a Android Studija.