Az MLPerf Inference v3.0 eredményei azt mutatják, hogy a teljesítmény javítása terén jelentős iparági trendek mutatkoznak

Megérkeztek az MLPerf 3.0 eredményei, és van néhány érdekes iparági trend.

A gépi tanulás és a mesterséges intelligencia egy gyorsan változó iparág, ahol minden nap folyamatos az innováció. Ezért fontos, hogy össze tudjuk hasonlítani az eszközök képességeit, és ezért is fontos, hogy legyen egy vagy több test, amely segíti az ágazat növekedését. Az MLPerf Inference v3.0-val az MLCommons csoport célja, hogy megduplázza azt a filozófiát, hogy méltányos és az eszközök gépi tanulási képességének szigorú tesztelése, miközben ellenőrizhető és reprodukálható eredmények. Az eredmények már megvannak, és a korábbi évek szállítóinak még nagyobb listájáról.

A „következtetés” a gépi tanulásban egy betanított algoritmusból származó tényleges eredményekre utal, ahol a modell azonosítani tudja, hogy minek felismerésére betanították. Az élet minden területén használnak következtetéseket, beleértve az önvezető autókat, a Google keresési javaslatait és még az AI chatbotokat is, mint pl. ChatGPT, Bing Chat vagy Google Bard. Az MLPerf v3.0 a következő feladatokat tudja tesztelni:

Feladat

Valós alkalmazások

Ajánlást

Tartalmi vagy vásárlási javaslatok, például keresés, közösségi média vagy hirdetések

Beszédfelismerés

Beszédből szöveggé alakítás okostelefonokon, kihangosított vezetői segítség

Természetes nyelvi feldolgozás (NLP)

Keresés, fordítás, chatbotok

Képosztályozás

Képcímkézés, általános látás

Tárgyérzékelés

Gyalogos észlelés, gyártási hibák észlelése, vörösszem-hatás csökkentése

3D szegmentálás

Orvosi képelemzés (pl. tumor azonosítás)

Az MLPerf v3.0 eredményadatbázisában több mint 5300 teljesítmény- és több mint 2400 teljesítménymérési eredmény található. Különösen a trendek az azonosítottak között szerepel, hogy sok új hardverrendszert használnak, amelyek az adatközpont-összetevők teljesítménye körülbelül 30%-kal nőtt egyes országokban. benchmarkok. Emellett sokkal több beküldő adott eredményt az energiahatékonyságra vonatkozóan, és háromszorosára nőtt az érdeklődés a hálózatra következtetni.

Az Nvidia, amely évek óta az MLPerf beadványok támasza, benyújtotta az első eredményeket a DGX H100-hoz, és az első beadványt az L4 Tensor Core GPU-hoz. A DGX H100 akár 54%-kal nagyobb teljesítményt kínált gyorsítónként az első H100-hoz képest, az L4 pedig akár háromszorosa az utolsó generációs T4 teljesítményének.

További eredményeket benyújtó cégek közé tartozik a Qualcomm, amely szerint "minden benchmark az NLP és a számítógép teljesítményének és energiahatékonyságának növekedését mutatja. Vision hálózatok." A vállalat azt is részletezte, hogy az első MLPerf 1.0 benyújtása óta a Qualcomm Cloud AI 100 teljesítménye 86%-kal, teljesítménye pedig 52%-kal javult. hatékonyság. Az eredményeket beküldő további jelentős gyártók közé tartozik az Intel, a HPE, a Gigabyte, az Asus és a Dell.