I risultati di MLPerf Inference v3.0 mostrano le principali tendenze del settore nel miglioramento delle prestazioni

click fraud protection

Sono arrivati ​​i risultati di MLPerf 3.0 e ci sono alcune tendenze interessanti del settore.

L’apprendimento automatico e l’intelligenza artificiale sono un settore in rapida evoluzione con un’innovazione costante in corso ogni giorno. Ecco perché è importante poter confrontare le capacità dei dispositivi ed è importante anche che ci sia uno o più enti che aiutino a guidare la crescita del settore. Con MLPerf Inference v3.0, il gruppo MLCommons mira a raddoppiare la filosofia di fornire un servizio equo e test rigorosi delle capacità di apprendimento automatico dei dispositivi fornendo risultati verificabili e riproducibili risultati. I risultati sono ora disponibili e provengono da un elenco ancora più ampio di fornitori degli anni precedenti.

L'"inferenza" nell'apprendimento automatico si riferisce alla produzione effettiva di risultati da un algoritmo addestrato, in cui il modello può quindi identificare ciò che è stato addestrato a riconoscere. Vediamo l'inferenza utilizzata in tutti i tipi di ambiti della vita, comprese le auto a guida autonoma, i suggerimenti di ricerca su Google e persino i chatbot AI come

ChatGPT, Bing Chat o Google Bard. MLPerf v3.0 può testare le seguenti attività:

Compito

Applicazioni del mondo reale

Raccomandazione

Contenuti o consigli per gli acquisti come ricerche, social media o pubblicità

Riconoscimento vocale

Sintesi vocale su smartphone, assistenza alla guida in vivavoce

Elaborazione del linguaggio naturale (PNL)

Ricerca, traduzione, chatbot

Classificazione delle immagini

Etichettatura delle immagini, visione generale

Rilevamento oggetti

Rilevamento pedoni, rilevamento difetti di fabbricazione, riduzione occhi rossi

Segmentazione 3D

Analisi delle immagini mediche (p. es., identificazione del tumore)

Nel database dei risultati per MLPerf v3.0 sono presenti oltre 5.300 risultati di prestazioni e più di 2.400 risultati di misurazioni di potenza. In particolare, le tendenze quelli identificati includono molti nuovi sistemi hardware utilizzati con un aumento delle prestazioni nei componenti dei data center di circa il 30% in alcuni punti di riferimenti. Inoltre, molti più presentatori hanno fornito risultati relativi all'efficienza energetica e l'interesse per l'inferenza della rete è triplicato.

Nvidia, che è stata un pilastro delle proposte MLPerf per diversi anni, ha presentato i primi risultati per il suo DGX H100 e la sua prima presentazione per la sua GPU L4 Tensor Core. Il DGX H100 offriva fino al 54% in più di prestazioni per acceleratore rispetto ai suoi primi modelli H100, e l'L4 offriva fino a tre volte le prestazioni del T4 di ultima generazione.

Altre aziende che hanno presentato risultati includono Qualcomm, la quale afferma che "tutti i benchmark mostrano un aumento delle prestazioni e dell'efficienza energetica per NLP e Computer Reti di visione." L'azienda ha inoltre spiegato in dettaglio come, dal primo invio di MLPerf 1.0, Qualcomm Cloud AI 100 sia stato migliorato fino all'86% in termini di prestazioni e fino al 52% in termini di potenza. efficienza. Altri importanti fornitori che hanno presentato risultati includono Intel, HPE, Gigabyte, Asus e Dell.