Google atdala ML komplekta ierīces API no Firebase

Google ir atdalījis ierīces mašīnmācīšanās API ML komplektā no Firebase un paziņoja par jaunu agrīnās piekļuves programmu gaidāmo API testēšanai.

Google plaši izmanto mākslīgo intelektu, lai nodrošinātu ļoti kontekstuālus un precīzus tīmekļa un attēlu meklēšanas rezultātus. Papildus meklēšanai tīmekļa platformā Google mašīnmācīšanās modeļi nodrošina arī dažādas AI lietojumprogrammas Android tālruņos, sākot no vizuālās meklēšanas Google objektīvs uz skaitļošanas fotogrāfija ar ko Pixel ierīces ir slavenas. Papildus savām lietojumprogrammām Google arī ļauj trešo pušu izstrādātājiem nemanāmi integrēt mašīnmācīšanās funkcijas savās lietotnēs ar ML Kit, SDK (programmatūras izstrādes komplekts), kas ir daļa no Firebase — tā tiešsaistes pārvaldības un analīzes informācijas paneļa mobilajām ierīcēm, palīdzība attīstību. No šodienas Google paziņo par būtiskām izmaiņām ML komplektā un padarīs ierīces API neatkarīgas no Firebase.

ML komplekts tika paziņots Google I/O 2018. gadā lai vienkāršotu mašīnmācīšanās funkciju pievienošanu lietotnēm. Tās palaišanas laikā ML komplekts sastāvēja no teksta atpazīšanas, sejas noteikšanas, svītrkoda skenēšanas, attēlu marķēšanas un orientieru atpazīšanas API. In 2019. gada aprīlī Google ieviesa savus pirmos dabiskās valodas apstrādes (NLP) API izstrādātājiem paredzētajā SDK viedās atbildes un valodas veidā. Identifikācija. Mēnesi vēlāk, t.i., Google I/O 2019,

Google ieviesa trīs jaunas ML API tulkošanai ierīcē, objektu noteikšanai un izsekošanai, kā arī AutoML Vision Edge API noteiktu konkrētu objektu, piemēram, ziedu vai pārtikas veidu, identificēšanai, izmantojot vizuālo meklēšanu.

ML komplektā ietilpst gan ierīcē, gan mākoņa bāzes API. Kā jūs varētu gaidīt, ierīces API apstrādā datus, izmantojot ierīcē saglabātos mašīnmācīšanās modeļus pati, kamēr mākoņdatošanas API nosūta datus uz mašīnmācīšanās modeļiem, kas mitināti Google mākoņplatformā, un saņem atrisinātos datus, izmantojot internetu. savienojums. Tā kā ierīces API darbojas bez interneta, tās var parsēt informāciju ātrāk un ir drošākas nekā to mākoņdatošanas līdzinieki. Ierīces mašīnmācīšanās API var arī paātrināt ar aparatūru Android ierīcēs, kurās darbojas operētājsistēma Android Oreo 8.1 un jaunāka versija. un palaist no Google neironu tīklu API (NNAPI) kopā ar īpašiem skaitļošanas blokiem vai NPU, kas atrodami jaunākajās mikroshēmojumos no Qualcomm, MediaTek, HiSilicon utt.

Google nesen publicēja a emuāra ieraksts paziņojot, ka ierīces API no ML komplekta tagad būs pieejamas kā daļa no neatkarīga SDK. Tas nozīmē ierīces API ML komplektā, tostarp teksta atpazīšanu, svītrkoda skenēšanu, sejas noteikšanu, attēlu marķēšanu, objektu noteikšanu un izsekošana, valodas identifikācija, viedā atbilde un tulkojums ierīcē — būs pieejami atsevišķā SDK, kuram var piekļūt bez Firebase. Tomēr Google iesaka Firebase izmantot ML komplekta SDK, lai migrēt savus esošos projektus uz jauno savrupo SDK. Jauns mikrovietne ir palaists ar visiem resursiem, kas saistīti ar ML Kit.

Izņemot jauno SDK, Google ir paziņojis par dažām izmaiņām, kas ļauj izstrādātājiem vieglāk integrēt mašīnmācīšanās modeļus savās lietotnēs. Pirmkārt, sejas noteikšanas/kontūras modelis tagad tiek piegādāts kā daļa no Google Play pakalpojumiem, tāpēc izstrādātājiem nav atsevišķi jāklonē API un modelis savām lietotnēm. Tas nodrošina mazāku lietotņu pakotnes izmēru un iespēju nevainojamāk atkārtoti izmantot modeli citās lietotnēs.

Otrkārt, Google ir pievienojis Android Jetpack dzīves cikls atbalsts visām API. Tas palīdzēs pārvaldīt API izmantošanu, kad lietotne tiek pagriezta ekrānā vai to aizver lietotājs. Turklāt tas arī atvieglo vienkāršu integrāciju CameraX Jetpack bibliotēka lietotnēs, kurās tiek izmantots ML komplekts.

Treškārt, Google ir paziņojusi par agrīnās piekļuves programma lai izstrādātāji varētu piekļūt gaidāmajām API un funkcijām pirms pārējām. Uzņēmums tagad ML komplektā pievieno divus jaunus API, lai atlasītie izstrādātāji varētu tos priekšskatīt un dalīties ar atsauksmēm. Šīs API ietver:

  • Entītiju ieguve lai tekstā noteiktu tādas lietas kā tālruņu numurus, adreses, maksājumu numurus, izsekošanas numurus un datumu un laiku, un
  • Pozu noteikšana zema latentuma noteikšanai 33 skeleta punktiem, ieskaitot rokas un kājas

Visbeidzot, Google tagad ļauj izstrādātājiem aizstāt esošos attēlu marķēšanas, kā arī objektu noteikšanas un izsekošanas API no ML komplekta ar pielāgotiem mašīnmācīšanās modeļiem no TensorFlow Lite. Uzņēmums drīzumā paziņos sīkāku informāciju par to, kā atrast vai klonēt TensorFlow Lite modeļus un apmācīt tos, izmantojot ML komplektu vai Android Studio jaunās ML integrācijas funkcijas.