Megérkeztek az MLPerf 3.0 eredményei, és van néhány érdekes iparági trend.
A gépi tanulás és a mesterséges intelligencia egy gyorsan változó iparág, ahol minden nap folyamatos az innováció. Ezért fontos, hogy össze tudjuk hasonlítani az eszközök képességeit, és ezért is fontos, hogy legyen egy vagy több test, amely segíti az ágazat növekedését. Az MLPerf Inference v3.0-val az MLCommons csoport célja, hogy megduplázza azt a filozófiát, hogy méltányos és az eszközök gépi tanulási képességének szigorú tesztelése, miközben ellenőrizhető és reprodukálható eredmények. Az eredmények már megvannak, és a korábbi évek szállítóinak még nagyobb listájáról.
A „következtetés” a gépi tanulásban egy betanított algoritmusból származó tényleges eredményekre utal, ahol a modell azonosítani tudja, hogy minek felismerésére betanították. Az élet minden területén használnak következtetéseket, beleértve az önvezető autókat, a Google keresési javaslatait és még az AI chatbotokat is, mint pl. ChatGPT, Bing Chat vagy Google Bard. Az MLPerf v3.0 a következő feladatokat tudja tesztelni:
Feladat |
Valós alkalmazások |
Ajánlást |
Tartalmi vagy vásárlási javaslatok, például keresés, közösségi média vagy hirdetések |
Beszédfelismerés |
Beszédből szöveggé alakítás okostelefonokon, kihangosított vezetői segítség |
Természetes nyelvi feldolgozás (NLP) |
Keresés, fordítás, chatbotok |
Képosztályozás |
Képcímkézés, általános látás |
Tárgyérzékelés |
Gyalogos észlelés, gyártási hibák észlelése, vörösszem-hatás csökkentése |
3D szegmentálás |
Orvosi képelemzés (pl. tumor azonosítás) |
Az MLPerf v3.0 eredményadatbázisában több mint 5300 teljesítmény- és több mint 2400 teljesítménymérési eredmény található. Különösen a trendek az azonosítottak között szerepel, hogy sok új hardverrendszert használnak, amelyek az adatközpont-összetevők teljesítménye körülbelül 30%-kal nőtt egyes országokban. benchmarkok. Emellett sokkal több beküldő adott eredményt az energiahatékonyságra vonatkozóan, és háromszorosára nőtt az érdeklődés a hálózatra következtetni.
Az Nvidia, amely évek óta az MLPerf beadványok támasza, benyújtotta az első eredményeket a DGX H100-hoz, és az első beadványt az L4 Tensor Core GPU-hoz. A DGX H100 akár 54%-kal nagyobb teljesítményt kínált gyorsítónként az első H100-hoz képest, az L4 pedig akár háromszorosa az utolsó generációs T4 teljesítményének.
További eredményeket benyújtó cégek közé tartozik a Qualcomm, amely szerint "minden benchmark az NLP és a számítógép teljesítményének és energiahatékonyságának növekedését mutatja. Vision hálózatok." A vállalat azt is részletezte, hogy az első MLPerf 1.0 benyújtása óta a Qualcomm Cloud AI 100 teljesítménye 86%-kal, teljesítménye pedig 52%-kal javult. hatékonyság. Az eredményeket beküldő további jelentős gyártók közé tartozik az Intel, a HPE, a Gigabyte, az Asus és a Dell.