Google decuplează API-urile de pe dispozitiv ale Kitului ML de Firebase

Google a separat API-urile de învățare automată de pe dispozitiv din Kitul ML de Firebase și a anunțat un nou program Early Access pentru testarea viitoarelor API-uri.

Google folosește pe scară largă inteligența artificială pentru a furniza rezultate de căutare pe web și imagini extrem de contextuale și precise. Pe lângă căutarea pe platforma web, modelele Google de învățare automată oferă și o varietate de aplicații AI pe telefoanele Android, de la căutarea vizuală pe Google Lens la fotografie computațională pentru care dispozitivele Pixel sunt renumite. În afară de propriile aplicații, Google le permite dezvoltatorilor terți să integreze funcțiile de învățare automată în aplicațiile lor fără probleme, cu ajutorul ML Kit, un SDK (Software Development Kit) care face parte din Firebase – tabloul de bord online de gestionare și analiză pentru dispozitive mobile dezvoltare. Începând de astăzi, Google anunță o schimbare majoră a kit-ului ML și va face API-urile de pe dispozitiv independente de Firebase.

Kitul ML a fost anunțat la Google I/O 2018 pentru a simplifica adăugarea de funcții de învățare automată la aplicații. La momentul lansării sale, ML Kit consta în recunoașterea textului, detectarea feței, scanarea codurilor de bare, etichetarea imaginilor și API-uri de recunoaștere a reperelor. În În aprilie 2019, Google a introdus primele sale API-uri de procesare a limbajului natural (NLP) în SDK-ul pentru dezvoltatori sub formă de răspuns inteligent și limbaj. Identificare. O lună mai târziu, adică la Google I/O 2019, Google a introdus trei noi API ML pentru traducerea pe dispozitiv, detectarea și urmărirea obiectelor și API-ul AutoML Vision Edge pentru identificarea unor obiecte specifice, cum ar fi tipuri de flori sau alimente, folosind căutarea vizuală.

Kitul ML cuprinde atât API-uri pe dispozitiv, cât și API-uri bazate pe cloud. După cum v-ați aștepta, API-urile de pe dispozitiv procesează datele folosind modelele de învățare automată salvate pe dispozitiv în timp ce API-urile bazate pe cloud trimit date către modelele de învățare automată găzduite pe platforma Google Cloud și primesc datele rezolvate pe internet conexiune. Deoarece API-urile de pe dispozitiv rulează fără Internet, pot analiza informații mai rapid și sunt mai sigure decât omologii lor bazați pe cloud. API-urile de învățare automată de pe dispozitiv pot fi, de asemenea, accelerate hardware pe dispozitivele Android care rulează Android Oreo 8.1 și versiuni ulterioare și rulați din API-ul rețelelor neuronale de la Google (NNAPI) împreună cu blocuri de calcul speciale sau NPU găsite pe cele mai recente chipset-uri din Qualcomm, MediaTek, HiSilicon etc.

Google a postat recent un postare pe blog anunțând că API-urile de pe dispozitiv din ML Kit vor fi acum disponibile ca parte a unui SDK independent. Aceasta înseamnă API-uri de pe dispozitiv în ML Kit – inclusiv recunoașterea textului, scanarea codurilor de bare, detectarea feței, etichetarea imaginilor, detectarea obiectelor și urmărirea, identificarea limbii, răspunsul inteligent și traducerea pe dispozitiv – vor fi disponibile într-un SDK separat care poate fi accesat fără Firebase. Cu toate acestea, Google recomandă utilizarea SDK-ului ML Kit în Firebase pentru migra proiectele lor existente la noul SDK autonom. Un nou microsite a fost lansat cu toate resursele legate de ML Kit.

În afară de noul SDK, Google a anunțat câteva modificări care facilitează pentru dezvoltatori să integreze modele de învățare automată în aplicațiile lor. În primul rând, modelul de detectare a feței/contur este acum livrat ca parte a serviciilor Google Play, astfel încât dezvoltatorii să nu fie nevoiți să cloneze API-ul și modelul separat pentru aplicațiile lor. Acest lucru permite o dimensiune mai mică pentru pachetul de aplicații și posibilitatea de a reutiliza modelul în alte aplicații mai perfect.

În al doilea rând, Google a adăugat Ciclul de viață Android Jetpack suport pentru toate API-urile. Acest lucru va ajuta la gestionarea utilizării API-urilor atunci când o aplicație este supusă unei rotații a ecranului sau este închisă de utilizator. În plus, facilitează și integrarea ușoară a Biblioteca CameraX Jetpack în aplicațiile care folosesc ML Kit.

În al treilea rând, Google a anunțat un program de acces timpuriu astfel încât dezvoltatorii să poată avea acces la viitoarele API-uri și funcții înainte de restul. Compania adaugă acum două noi API-uri în kit-ul ML, pentru ca dezvoltatorii selectați să le previzualizeze și să le împărtășească feedback-ul. Aceste API includ:

  • Extragerea entității pentru a detecta lucruri precum numere de telefon, adrese, numere de plată, numere de urmărire și data și ora în text și
  • Detectarea poziției pentru detectarea cu latență scăzută a 33 de puncte scheletice, inclusiv mâini și picioare

În cele din urmă, Google le permite acum dezvoltatorilor să înlocuiască etichetarea imaginilor existente, precum și API-urile de detectare și urmărire a obiectelor din Kitul ML cu modele personalizate de învățare automată de la TensorFlow Lite. Compania va anunța în curând mai multe detalii despre cum să găsești sau să clonezi modelele TensorFlow Lite și să le antrenezi folosind ML Kit sau noile funcții de integrare ML ale Android Studio.