„Google“ atsieja ML Kit įrenginio API nuo „Firebase“.

click fraud protection

„Google“ atskyrė įrenginio mašininio mokymosi API ML rinkinyje nuo „Firebase“ ir paskelbė apie naują ankstyvos prieigos programą, skirtą būsimoms API testavimui.

„Google“ plačiai naudoja dirbtinį intelektą, kad pateiktų labai kontekstinius ir tikslius žiniatinklio ir vaizdų paieškos rezultatus. Be paieškos žiniatinklio platformoje, „Google“ mašininio mokymosi modeliai taip pat teikia įvairias AI programas „Android“ telefonuose, pradedant vaizdine paieška Google Lens į kompiuterinė fotografija kuriais garsėja Pixel įrenginiai. Be savo programų, „Google“ taip pat leidžia trečiųjų šalių kūrėjams sklandžiai integruoti mašininio mokymosi funkcijas į savo programas su ML Kit, SDK (Software Development Kit), kuris yra „Firebase“ dalis – jos internetinio valdymo ir analizės prietaisų skydelis mobiliesiems, pagalba. plėtra. Nuo šiandien „Google“ praneša apie esminį ML rinkinio pakeitimą ir padarys įrenginio API nepriklausomas nuo „Firebase“.

„ML Kit“ buvo paskelbta „Google I/O 2018“. supaprastinti mašininio mokymosi funkcijų įtraukimą į programas. Paleidimo metu ML rinkinį sudarė teksto atpažinimas, veido aptikimas, brūkšninio kodo nuskaitymas, vaizdų žymėjimas ir orientyrų atpažinimo API. Į 2019 m. balandžio mėn. „Google“ pristatė savo pirmąsias natūralios kalbos apdorojimo (NLP) API kūrėjams skirtame SDK kaip išmanųjį atsakymą ir kalbą Identifikavimas. Po mėnesio, t. y. „Google I/O 2019“,

„Google“ pristatė tris naujas ML API vertimui įrenginyje, objektų aptikimui ir sekimui ir AutoML Vision Edge API identifikuoti konkrečius objektus, pvz., gėlių ar maisto rūšis, naudojant vizualinę paiešką.

ML rinkinį sudaro ir įrenginyje, ir debesyje pagrįstos API. Kaip ir tikėjotės, įrenginio API apdoroja duomenis naudodamos įrenginyje išsaugotus mašininio mokymosi modelius pati, o debesies pagrindu veikiančios API siunčia duomenis į mašininio mokymosi modelius, esančius „Google“ debesies platformoje, ir gauna išspręstus duomenis internetu. ryšį. Kadangi įrenginio API veikia be interneto, jos gali greičiau išanalizuoti informaciją ir yra saugesnės nei debesyje pagrįstos kolegos. Įrenginio mašininio mokymosi API taip pat gali būti pagreitintos aparatinės įrangos „Android“ įrenginiuose, kuriuose veikia „Android Oreo 8.1“ ir naujesnė versija ir paleisti iš Google neuroninių tinklų API (NNAPI) kartu su specialiais skaičiavimo blokais arba NPU, esančiais naujausiuose mikroschemų rinkiniuose iš Qualcomm, MediaTek, HiSilicon ir kt.

„Google“ neseniai paskelbė a tinklaraščio straipsnis paskelbė, kad įrenginyje esančios API iš ML Kit dabar bus prieinamos kaip nepriklausomo SDK dalis. Tai reiškia įrenginio API ML rinkinyje, įskaitant teksto atpažinimą, brūkšninio kodo nuskaitymą, veido aptikimą, vaizdo žymėjimą, objektų aptikimą ir sekimas, kalbos identifikavimas, išmanusis atsakymas ir vertimas įrenginyje – bus pasiekiami atskirame SDK, kurį bus galima pasiekti be Firebase. Tačiau „Google“ rekomenduoja „Firebase“ naudoti ML rinkinio SDK perkelti esamus projektus į naują atskirą SDK. Naujas mikrosvetainė buvo paleistas su visais ištekliais, susijusiais su ML Kit.

Išskyrus naująjį SDK, „Google“ paskelbė kai kuriuos pakeitimus, leidžiančius kūrėjams lengviau integruoti mašininio mokymosi modelius į savo programas. Pirma, veido aptikimo / kontūro modelis dabar pateikiamas kaip „Google Play“ paslaugų dalis, todėl kūrėjams nereikėtų atskirai klonuoti API ir modelio savo programoms. Tai leidžia sumažinti programos paketo dydį ir sklandžiau pakartotinai naudoti modelį kitose programose.

Antra, „Google“ pridėjo Android Jetpack gyvavimo ciklas palaikymas visoms API. Tai padės valdyti API naudojimą, kai programos ekranas sukasi arba vartotojas ją uždaro. Be to, tai taip pat palengvina lengvą integravimą CameraX Jetpack biblioteka programose, kuriose naudojamas ML rinkinys.

Trečia, „Google“ paskelbė ankstyvos prieigos programa kad kūrėjai galėtų gauti prieigą prie būsimų API ir funkcijų anksčiau nei kiti. Bendrovė dabar į ML rinkinį prideda dvi naujas API, kad atrinkti kūrėjai galėtų jas peržiūrėti ir pasidalinti atsiliepimais. Šios API apima:

  • Esybės ištraukimas aptikti tokius dalykus kaip telefonų numerius, adresus, mokėjimo numerius, sekimo numerius, datą ir laiką tekste ir
  • Pozos aptikimas 33 skeleto taškų, įskaitant rankas ir pėdas, aptikimui mažu latentiniu laikotarpiu

Galiausiai, „Google“ dabar leidžia kūrėjams pakeisti esamas vaizdo ženklinimo, taip pat objektų aptikimo ir stebėjimo API iš ML rinkinio pritaikytais mašininio mokymosi modeliais iš TensorFlow Lite. Netrukus bendrovė paskelbs daugiau informacijos apie tai, kaip rasti ar klonuoti TensorFlow Lite modelius ir išmokyti juos naudojant ML Kit arba Android Studio naujas ML integravimo funkcijas.