Il kit ML di Google è un nuovo SDK Firebase che elimina i grattacapi dall'apprendimento automatico

Ti interessa il machine learning ma non hai molta esperienza? Il nuovo SDK ML Kit di Google semplifica l'integrazione del machine learning nella tua app Android o iOS.

L'apprendimento automatico e l'intelligenza artificiale sono entrati rapidamente nel nostro lessico negli ultimi anni, ma pochi capiscono veramente come funziona la tecnologia o di cosa sono capaci. Anche i ricercatori di intelligenza artificiale di Google scherzo dicendo che l'apprendimento automatico è simile all'alchimia. In qualità di sviluppatore impegnato, potresti non avere il tempo di apprendere l'apprendimento automatico (ML), ma Google non vuole che ciò ti impedisca di trarne i vantaggi. Per questo motivo, la società ha annunciato oggi Kit ML: un nuovo SDK che incorpora anni di lavoro di Google sull'apprendimento automatico in un pacchetto Firebase utilizzato dagli sviluppatori di app mobili sia iOS che Android possono utilizzare per migliorare le proprie app.

Se tu non so nulla di machine learning, allora non preoccuparti:

Non è necessaria alcuna conoscenza di base di ML. Probabilmente hai familiarità con alcune applicazioni reali della tecnologia come il rilevamento dei volti e il riconoscimento delle immagini. Il kit ML di Google vuole che la tua app tragga vantaggio dagli usi reali del ML senza che tu debba capire come funziona l'algoritmo. E se capisci il machine learning o sei disposto a imparare, anche tu puoi sfruttare il kit ML.


Machine Learning per principianti con ML Kit

Il nuovo Firebase SDK per ML di Google offre cinque API per alcuni dei casi d'uso più comuni sui dispositivi mobili:

  • Riconoscimento del testo
  • Riconoscimento facciale
  • Scansione di codici a barre
  • Etichettatura delle immagini
  • Riconoscimento del punto di riferimento

Tutto quello che devi fare è passare i dati all'API e l'SDK restituirà una risposta. È così semplice. Alcuni esempi di utilizzo del machine learning includono applicazioni musicali che interpretano le note suonate e applicano la cancellazione dell'eco/rumore alla musica. Un altro esempio potrebbe essere il riconoscimento ottico dei caratteri (OCR) per le etichette nutrizionali delle app per il conteggio delle calorie.

L'elenco delle API di base disponibili si espanderà nei prossimi mesi per includere un'API di risposta intelligente proprio come Androide P e un'aggiunta del contorno del viso ad alta densità all'API di rilevamento del volto.


Kit ML per utenti esperti

Se hai un po' di conoscenza di base, puoi anche distribuire il tuo software personalizzato TensorFlow Lite Modelli. Tutto quello che devi fare è caricare il tuo modello sulla console Firebase in modo da non doverti preoccupare di raggruppare il modello nel tuo APK (riducendo così le dimensioni del file). ML Kit fornisce il tuo modello in modo dinamico in modo da poter aggiornare i tuoi modelli senza ripubblicare il tuo app.

Ancora meglio è che Google comprimerà automaticamente i modelli TensorFlow completi in un TensorFlow Lite modello, che riduce le dimensioni del file e garantisce che più persone con connessioni dati limitate possano usufruire del tuo app.


API su dispositivo e cloud

ML Kit offre sia API sul dispositivo che API cloud. L'API sul dispositivo elabora i dati senza una connessione di rete (come Funzionalità di selezione del testo di Android Oreo) mentre le API Cloud utilizzano Google Cloud Platform per elaborare i dati con maggiore precisione.

ML Kit funziona sia su Android che su iOS e, su Android, in particolare, funziona con dispositivi che eseguono versioni Android vecchie come Ice Cream Sandwich. Se l'utente è in esecuzione Android 8.1Oreo e superiori, allora ML Kit offrirà prestazioni migliori grazie all'API Neural Networks già presente. Sui dispositivi con chipset dotati di hardware specializzato come Qualcomm Snapdragon 845 (e il suo DSP Hexagon) o il HiSilicon Kirin 970 (e la sua Neural Processing Unit), l'elaborazione sul dispositivo verrà accelerata. Google afferma che sta lavorando con i fornitori di SoC per migliorare anche il riconoscimento sul dispositivo.


Conclusione

Gli sviluppatori che desiderano iniziare dovrebbero cercare il nuovo SDK nel file Console FireBase. Puoi lasciare un feedback nel Gruppo Google per Firebase.

Gli sviluppatori con esperienza in ML che desiderano provare l'algoritmo di Google per la compressione dei modelli TensorFlow possono farlo iscriviti qui. Infine, controlla il Configurazione remota Firebase se vuoi sperimentare più modelli personalizzati; ti consente di cambiare i valori del modello in modo dinamico, creare segmenti di popolazione e sperimentare diversi modelli in parallelo.