Rezultatele MLPerf Inference v3.0 arată tendințe majore la nivel de industrie în ceea ce privește îmbunătățirea performanței

click fraud protection

Rezultatele MLPerf 3.0 sunt disponibile și există câteva tendințe interesante din industrie.

Învățarea automată și inteligența artificială este o industrie în schimbare rapidă, cu inovații constante în desfășurare în fiecare zi. De aceea este important să poți compara capacitățile dispozitivelor și, de asemenea, este important să existe un organism sau mai multe corpuri care să ajute la ghidarea creșterii sectorului. Cu MLPerf Inference v3.0, grupul MLCommons își propune să dubleze filozofia de a oferi un serviciu corect și corect. testare riguroasă a capacităților de învățare automată ale dispozitivelor, oferind în același timp verificabile și reproductibile rezultate. Rezultatele sunt acum și dintr-o listă și mai mare de furnizori din anii precedenți.

„Inferența” în învățarea automată se referă la obținerea reală a rezultatelor de la un algoritm antrenat, unde modelul poate identifica apoi ceea ce a fost antrenat să recunoască. Vedem inferența folosită în toate domeniile vieții, inclusiv în mașini cu conducere autonomă, sugestii de căutare pe Google și chiar în chatbot-uri AI precum

ChatGPT, Bing Chat sau Google Bard. MLPerf v3.0 poate testa următoarele sarcini:

Sarcină

Aplicații din lumea reală

Recomandare

Recomandări de conținut sau de cumpărături, cum ar fi căutarea, rețelele sociale sau reclamele

Recunoaștere a vorbirii

Speech-to-text pe smartphone-uri, asistență pentru șofer fără mâini

Procesarea limbajului natural (NLP)

Căutare, traducere, chatbot

Clasificarea imaginilor

Etichetare imagini, vedere generală

Detectarea obiectelor

Detectarea pietonilor, detectarea defectelor de fabricație, reducerea efectului de ochi roșii

Segmentarea 3D

Analiza imaginilor medicale (de exemplu, identificarea tumorii)

Există peste 5.300 de rezultate de performanță și mai mult de 2.400 de rezultate de măsurare a puterii în baza de date de rezultate pentru MLPerf v3.0. În special, tendințele care au fost identificate includ o mulțime de sisteme hardware noi utilizate cu performanță crescută în componentele centrelor de date de aproximativ 30% în unele repere. De asemenea, mult mai mulți participanți au dat rezultate referitoare la eficiența energetică și a existat o creștere de trei ori a interesului pentru deducerea rețelei.

Nvidia, care a fost un pilon al trimiterilor MLPerf de câțiva ani, a trimis primele rezultate pentru DGX H100 și prima sa trimitere pentru GPU-ul său L4 Tensor Core. DGX H100 a oferit cu până la 54% mai multă performanță per accelerator în comparație cu primele sale trimiteri H100, iar L4 a oferit performanțe de până la trei ori mai mari decât ultima generație de T4.

Alte companii care au prezentat rezultate includ Qualcomm, despre care compania spune că „toate benchmark-urile arată o creștere a performanței și a eficienței energetice pentru NLP și computer. Rețele de viziune.” Compania a detaliat, de asemenea, cum de la prima prezentare MLPerf 1.0, Qualcomm Cloud AI 100 a fost îmbunătățit cu până la 86% în performanță și 52% în putere. eficienţă. Alți furnizori noti care au trimis rezultate includ Intel, HPE, Gigabyte, Asus și Dell.