Les résultats de MLPerf Inference v3.0 montrent les principales tendances de l'industrie en matière d'amélioration des performances

Les résultats de MLPerf 3.0 sont arrivés et il existe des tendances intéressantes dans le secteur.

L’apprentissage automatique et l’intelligence artificielle sont des secteurs en évolution rapide avec une innovation constante chaque jour. C'est pourquoi il est important de pouvoir comparer les capacités des appareils et pourquoi il est également important qu'il y ait un ou plusieurs organismes qui aident à guider la croissance du secteur. Avec MLPerf Inference v3.0, le groupe MLCommons vise à doubler la philosophie consistant à fournir un système juste et équitable. test rigoureux des capacités d'apprentissage automatique des appareils tout en fournissant des informations vérifiables et reproductibles résultats. Les résultats sont maintenant disponibles et proviennent d'une liste encore plus longue de fournisseurs des années précédentes.

« Inférence » dans l'apprentissage automatique fait référence à l'obtention réelle de résultats à partir d'un algorithme entraîné, où le modèle peut ensuite identifier ce pour quoi il a été entraîné à reconnaître. Nous constatons que l'inférence est utilisée dans tous les domaines, y compris les voitures autonomes, les suggestions de recherche sur Google et même les chatbots IA comme

ChatGPT, Bing Chat ou Google Bard. MLPerf v3.0 peut tester les tâches suivantes :

Tâche

Applications du monde réel

Recommandation

Recommandations de contenu ou d'achat telles que la recherche, les réseaux sociaux ou les publicités

Reconnaissance de la parole

Synthèse vocale sur smartphone, aide à la conduite mains libres

Traitement du langage naturel (NLP)

Recherche, traduction, chatbots

Classement des images

Étiquetage d'images, vision générale

Détection d'objet

Détection des piétons, détection des défauts de fabrication, réduction des yeux rouges

Segmentation 3D

Analyse d'images médicales (par exemple, identification de tumeurs)

Il existe plus de 5 300 résultats de performances et plus de 2 400 résultats de mesures de puissance dans la base de données de résultats pour MLPerf v3.0. En particulier, les tendances qui ont été identifiés incluent de nombreux nouveaux systèmes matériels utilisés avec des performances accrues dans les composants du centre de données d'environ 30 % dans certains des repères. De plus, beaucoup plus de participants ont donné des résultats relatifs à l'efficacité énergétique, et l'intérêt pour l'inférence du réseau a été multiplié par trois.

Nvidia, qui est un pilier des soumissions MLPerf depuis plusieurs années, a soumis les premiers résultats pour son DGX H100 et sa première soumission pour son GPU L4 Tensor Core. Le DGX H100 offrait jusqu'à 54 % de performances supplémentaires par accélérateur par rapport à ses premières soumissions H100, et le L4 offrait jusqu'à trois fois les performances du T4 de dernière génération.

Parmi les autres sociétés qui ont soumis des résultats, citons Qualcomm, qui affirme que "tous les tests montrent une augmentation des performances et de l'efficacité énergétique pour la PNL et les ordinateurs". Vision Networks." La société a également expliqué comment, depuis sa première soumission MLPerf 1.0, Qualcomm Cloud AI 100 a été amélioré jusqu'à 86 % en performances et 52 % en puissance. efficacité. Parmi les autres fournisseurs notables qui ont soumis des résultats figurent Intel, HPE, Gigabyte, Asus et Dell.