Sono arrivati i risultati di MLPerf 3.0 e ci sono alcune tendenze interessanti del settore.
L’apprendimento automatico e l’intelligenza artificiale sono un settore in rapida evoluzione con un’innovazione costante in corso ogni giorno. Ecco perché è importante poter confrontare le capacità dei dispositivi ed è importante anche che ci sia uno o più enti che aiutino a guidare la crescita del settore. Con MLPerf Inference v3.0, il gruppo MLCommons mira a raddoppiare la filosofia di fornire un servizio equo e test rigorosi delle capacità di apprendimento automatico dei dispositivi fornendo risultati verificabili e riproducibili risultati. I risultati sono ora disponibili e provengono da un elenco ancora più ampio di fornitori degli anni precedenti.
L'"inferenza" nell'apprendimento automatico si riferisce alla produzione effettiva di risultati da un algoritmo addestrato, in cui il modello può quindi identificare ciò che è stato addestrato a riconoscere. Vediamo l'inferenza utilizzata in tutti i tipi di ambiti della vita, comprese le auto a guida autonoma, i suggerimenti di ricerca su Google e persino i chatbot AI come
ChatGPT, Bing Chat o Google Bard. MLPerf v3.0 può testare le seguenti attività:Compito |
Applicazioni del mondo reale |
Raccomandazione |
Contenuti o consigli per gli acquisti come ricerche, social media o pubblicità |
Riconoscimento vocale |
Sintesi vocale su smartphone, assistenza alla guida in vivavoce |
Elaborazione del linguaggio naturale (PNL) |
Ricerca, traduzione, chatbot |
Classificazione delle immagini |
Etichettatura delle immagini, visione generale |
Rilevamento oggetti |
Rilevamento pedoni, rilevamento difetti di fabbricazione, riduzione occhi rossi |
Segmentazione 3D |
Analisi delle immagini mediche (p. es., identificazione del tumore) |
Nel database dei risultati per MLPerf v3.0 sono presenti oltre 5.300 risultati di prestazioni e più di 2.400 risultati di misurazioni di potenza. In particolare, le tendenze quelli identificati includono molti nuovi sistemi hardware utilizzati con un aumento delle prestazioni nei componenti dei data center di circa il 30% in alcuni punti di riferimenti. Inoltre, molti più presentatori hanno fornito risultati relativi all'efficienza energetica e l'interesse per l'inferenza della rete è triplicato.
Nvidia, che è stata un pilastro delle proposte MLPerf per diversi anni, ha presentato i primi risultati per il suo DGX H100 e la sua prima presentazione per la sua GPU L4 Tensor Core. Il DGX H100 offriva fino al 54% in più di prestazioni per acceleratore rispetto ai suoi primi modelli H100, e l'L4 offriva fino a tre volte le prestazioni del T4 di ultima generazione.
Altre aziende che hanno presentato risultati includono Qualcomm, la quale afferma che "tutti i benchmark mostrano un aumento delle prestazioni e dell'efficienza energetica per NLP e Computer Reti di visione." L'azienda ha inoltre spiegato in dettaglio come, dal primo invio di MLPerf 1.0, Qualcomm Cloud AI 100 sia stato migliorato fino all'86% in termini di prestazioni e fino al 52% in termini di potenza. efficienza. Altri importanti fornitori che hanno presentato risultati includono Intel, HPE, Gigabyte, Asus e Dell.