Lors de Google I/O 2021, Google a expliqué comment il rendait l'apprentissage automatique plus rapide et plus cohérent pour les développeurs sur les appareils Android.
Suite à la présentation principale d'hier à Google I/O 2021, la société a organisé plusieurs sessions désormais disponibles à la demande via YouTube. L'une des sessions a porté sur les nouveautés en matière d'apprentissage automatique pour Android et sur la manière dont Google le rend plus rapide et plus cohérent pour les développeurs.
L'apprentissage automatique est responsable du fonctionnement des fonctionnalités que les propriétaires d'Android utilisent quotidiennement, du flou d'arrière-plan dans les images au remplacement de l'arrière-plan dans les applications d'appel vidéo, etc. sous-titrage en direct lors des appels sur les téléphones Pixel. Alors que l'apprentissage automatique devient de plus en plus avancé, Google a déclaré qu'il restait encore plusieurs défis dans le déploiement de fonctionnalités basées sur le ML, notamment des problèmes liés à la surcharge des applications et à la variation des performances. Il existe également des problèmes de disponibilité des fonctionnalités, car tous les appareils n'ont pas accès aux mêmes API ou versions d'API.
Image: Google
Pour résoudre ce problème, Google annonce la pile d'inférence ML entièrement intégrée et actualisable d'Android, de sorte qu'il y aura un ensemble de composants communs sur tous les appareils qui fonctionneront ensemble. Cela apporte les avantages suivants aux développeurs d'applications :
- Les développeurs n'ont plus besoin de regrouper le code pour l'inférence sur l'appareil dans leur propre application.
- Les API d'apprentissage automatique sont davantage intégrées à Android pour offrir de meilleures performances lorsqu'elles sont disponibles.
- Google peut fournir une API cohérente entre les versions et mises à jour d'Android. Les mises à jour régulières des API proviennent directement de Google et existent indépendamment des mises à jour du système d'exploitation.
Image: Google
Pour y parvenir, Google fait plusieurs choses. D'abord, il a dit que TensorFlow Lite pour Android sera préinstallé sur tous les appareils Android via les services Google Play afin que les développeurs n'aient plus besoin de le regrouper avec leurs propres applications. Google ajoute également une liste blanche intégrée de GPU compatibles sur Android pouvant être utilisés pour l'accélération matérielle. Le géant de la recherche introduit également une « accélération automatique » qui exploite l'apprentissage automatique du développeur. modèle en compte et peut vérifier si le modèle fonctionne mieux en accéléré sur le CPU, le GPU ou autre accélérateurs.
Image: Google
Ensuite, Google a également annoncé qu'il éloignait NNAPI du cadre principal du système d'exploitation afin qu'il puisse être mis à jour via les services Google Play. Cela signifie que les développeurs peuvent utiliser la même spécification NNAPI même si deux appareils exécutent des versions Android différentes. Notamment, le Exécution NNAPI a été ajouté comme Module principal dans Android 11, c'est peut-être ainsi que ces mises à jour sont fournies. Google travaille avec Qualcomm pour rendre les pilotes NNAPI actualisables disponibles sur les appareils exécutant Android 12, et les nouvelles fonctionnalités seront rétroportées pendant la durée de vie commerciale d'un chipset. De plus, les mises à jour sera régulièrement livré et sera également rétrocompatible avec les anciens processeurs Snapdragon.
Les améliorations apportées à l'apprentissage automatique ne représentent qu'une infime fraction de ce que Google a annoncé cette semaine. Le géant de la recherche a dévoilé une refonte majeure en Android 12 et a également partagé les premiers détails de sa collaboration avec Samsung pour Wear OS remanié.
\r\n https://www.youtube.com/watch? v=uTCQ8rAdPGE\r\n