Le ML Kit de Google est un nouveau SDK Firebase qui simplifie l'apprentissage automatique

Vous êtes intéressé par l’apprentissage automatique mais vous n’avez pas beaucoup d’expérience? Le nouveau SDK ML Kit de Google facilite l'intégration de l'apprentissage automatique dans votre application Android ou iOS.

L’apprentissage automatique et l’intelligence artificielle sont rapidement entrés dans notre lexique ces dernières années, mais rares sont ceux qui comprennent réellement comment fonctionne la technologie ou de quoi elle est capable. Même les chercheurs en IA de Google blague selon laquelle l'apprentissage automatique s'apparente à l'alchimie. En tant que développeur très occupé, vous n'avez peut-être pas le temps de vous renseigner sur l'apprentissage automatique (ML), mais Google ne veut pas que cela vous empêche d'en récolter les avantages. Pour cette raison, la société a annoncé aujourd'hui Trousse ML: Un nouveau SDK qui intègre des années de travail de Google sur l'apprentissage automatique dans un package Firebase utilisé par les développeurs d'applications mobiles. à la fois iOS et Android peuvent utiliser pour améliorer leurs applications.

Si tu je ne connais rien à l'apprentissage automatique, alors ne vous inquiétez pas: Vous n'avez besoin d'aucune connaissance préalable en ML. Vous connaissez probablement certaines applications réelles de cette technologie, telles que la détection de visages et la reconnaissance d'images. Le kit ML de Google souhaite que votre application bénéficie des utilisations réelles du ML sans que vous ayez besoin de comprendre le fonctionnement de l'algorithme. Et si vous comprenez le ML ou si vous souhaitez apprendre, vous pouvez également profiter de ML Kit.


Apprentissage automatique pour les débutants avec ML Kit

Le nouveau SDK Firebase pour ML de Google propose cinq API pour certains des cas d'utilisation les plus courants sur mobile :

  • Reconnaissance de texte
  • Détection facial
  • Lecture de codes-barres
  • Étiquetage des images
  • Reconnaissance historique

Tout ce que vous avez à faire est de transmettre les données à l'API et le SDK renvoie une réponse. C'est si simple. Quelques exemples d'utilisation du ML incluent des applications musicales qui interprètent les notes que vous jouez et appliquent la suppression de l'écho/du bruit à votre musique. Un autre exemple pourrait être la reconnaissance optique de caractères (OCR) pour les étiquettes nutritionnelles des applications de comptage de calories.

La liste des API de base disponibles s'élargira dans les mois à venir pour inclure une API de réponse intelligente, tout comme Android P et un ajout de contour du visage haute densité à l'API de détection de visage.


Kit ML pour les utilisateurs expérimentés

Si vous avez quelques connaissances préalables, vous pouvez également déployer votre propre TensorFlow Lite des modèles. Tout ce que vous avez à faire est de télécharger votre modèle sur la console Firebase afin de ne pas avoir à vous soucier de regrouper le modèle dans votre APK (réduisant ainsi la taille du fichier.) ML Kit sert votre modèle de manière dynamique afin que vous puissiez mettre à jour vos modèles sans republier votre application.

Mieux encore, Google compressera automatiquement les modèles TensorFlow complets dans un TensorFlow Lite. modèle, qui réduit la taille des fichiers et garantit qu'un plus grand nombre de personnes disposant de connexions de données limitées peuvent profiter de votre application.


API sur appareil et dans le cloud

ML Kit propose des API sur appareil et dans le cloud. L'API sur l'appareil traite les données sans connexion réseau (comme Fonction de sélection de texte d'Android Oreo) tandis que les API Cloud utilisent Google Cloud Platform pour traiter les données pour plus de précision.

ML Kit fonctionne à la fois sur Android et iOS, et sur Android, en particulier, il fonctionne avec les appareils exécutant des versions d'Android aussi anciennes que Ice Cream Sandwich. Si l'utilisateur exécute Android 8.1 Oréo et au-dessus, alors ML Kit offrira de meilleures performances grâce à l'API Neural Networks déjà présente. Sur les appareils dotés de chipsets dotés d'un matériel spécialisé tel que le Qualcomm Snapdragon 845 (et son DSP Hexagone) ou la HiSilicon Kirin 970 (et son unité de traitement neuronal), le traitement sur l'appareil sera accéléré. Google affirme travailler également avec les fournisseurs de SoC pour améliorer la reconnaissance sur l'appareil.


Conclusion

Les développeurs souhaitant se lancer devraient rechercher le nouveau SDK dans le Console Firebase. Vous pouvez laisser des commentaires dans le Groupe Google pour Firebase.

Les développeurs ayant une expérience en ML et souhaitant essayer l'algorithme de Google pour compresser les modèles TensorFlow peuvent inscrivez-vous ici. Enfin, consultez le Configuration à distance Firebase si vous souhaitez expérimenter plusieurs modèles personnalisés; il vous permet de changer dynamiquement les valeurs du modèle, de créer des segments de population et d'expérimenter plusieurs modèles en parallèle.