Interessert i maskinlæring, men har ikke mye erfaring? Googles nye ML Kit SDK gjør maskinlæring enkel å integrere i Android- eller iOS-appen din.
Maskinlæring og kunstig intelligens har raskt kommet inn i leksikonet vårt de siste årene, men få forstår virkelig hvordan teknologien fungerer, eller hva de er i stand til. Til og med Googles egne AI-forskere spøk om at maskinlæring er beslektet med alkymi. Som en travel utvikler har du kanskje ikke tid til å lære om maskinlæring (ML), men Google vil ikke at det skal hindre deg i å høste fordelene. Av den grunn kunngjorde selskapet i dag ML-sett: En ny SDK som inkluderer årevis med Googles arbeid med maskinlæring i en Firebase-pakke som utviklere av mobilapper både iOS og Android kan bruke til å forbedre appene sine.
Hvis du vet ikke noe om maskinlæring, så ikke bekymre deg: Du trenger ingen tidligere ML-kunnskaper. Du er sannsynligvis kjent med noen virkelige anvendelser av teknologien som ansiktsgjenkjenning og bildegjenkjenning. Googles ML Kit vil at appen din skal dra nytte av den virkelige bruken av ML uten at du trenger å forstå hvordan algoritmen fungerer. Og hvis du forstår ML eller er villig til å lære, kan du også dra nytte av ML Kit.
Maskinlæring for nybegynnere med ML Kit
Googles nye Firebase SDK for ML tilbyr fem API-er for noen av de vanligste brukstilfellene på mobil:
- Tekstgjenkjenning
- Ansiktsgjenkjennelse
- Strekkodeskanning
- Bildemerking
- Landemerke anerkjennelse
Alt du trenger å gjøre er å sende data til API-en og SDK-en returnerer et svar. Så enkelt er det. Noen eksempler på ML-bruk inkluderer musikkapplikasjoner som tolker hvilke noter du spiller og bruker ekko-/støykansellering på musikken din. Et annet eksempel kan være optisk tegngjenkjenning (OCR) for ernæringsetiketter for apper for kaloritelling.
Listen over tilgjengelige basis-API-er vil utvides i løpet av de kommende månedene til å inkludere en smart svar-API akkurat som Android P og et tillegg til ansiktskontur med høy tetthet til API for ansiktsgjenkjenning.
ML Kit for erfarne brukere
Hvis du har litt tidligere bakgrunnskunnskap, kan du også distribuere din egen tilpassede TensorFlow Lite modeller. Alt du trenger å gjøre er å laste opp modellen til Firebase-konsollen, slik at du ikke trenger å bekymre deg for å samle modellen til APK (og dermed redusere filstørrelsen.) ML Kit betjener modellen din dynamisk slik at du kan oppdatere modellene dine uten å publisere på nytt app.
Enda bedre er at Google automatisk vil komprimere hele TensorFlow-modeller til en TensorFlow Lite modell, som reduserer filstørrelsen og sikrer at flere personer på begrensede dataforbindelser kan nyte din app.
På enheten og Cloud APIer
ML Kit tilbyr både on-device og Cloud APIer. API-en på enheten behandler data uten en nettverkstilkobling (som Android Oreos tekstvalgfunksjon) mens Cloud API-ene bruker Google Cloud Platform til å behandle data for mer nøyaktighet.
ML Kit fungerer på både Android og iOS, og spesielt på Android fungerer det med enheter som kjører Android-versjoner like gamle som Ice Cream Sandwich. Hvis brukeren kjører Android 8.1 Oreo og over, da vil ML Kit tilby bedre ytelse takket være Neural Networks API som allerede er til stede. På enheter med brikkesett som har spesialisert maskinvare som f.eks Qualcomm Snapdragon 845 (og dens Hexagon DSP) eller HiSilicon Kirin 970 (og dens nevrale prosesseringsenhet), vil prosessering på enheten akselereres. Google sier at de jobber med SoC-leverandører for å forbedre gjenkjenningen på enheten også.
Konklusjon
Utviklere som ønsker å komme i gang bør se etter den nye SDK-en i Firebase-konsoll. Du kan gi tilbakemelding i Google-gruppe for Firebase.
Utviklere med erfaring i ML som ønsker å prøve Googles algoritme for å komprimere TensorFlow-modeller kan Meld deg på her. Til slutt, sjekk ut Firebase Remote Config hvis du vil eksperimentere med flere tilpassede modeller; den lar deg bytte modellverdier dynamisk, lage populasjonssegmenter og eksperimentere med flere modeller parallelt.