Резултатите от MLPerf 3.0 са готови и има някои интересни тенденции в индустрията.
Машинното обучение и изкуственият интелект са бързо променяща се индустрия с постоянни иновации, протичащи всеки ден. Ето защо възможността за сравняване на възможностите на устройствата е важна и защо също така е важно да има тяло или множество тела, които да помагат за насочването на растежа на сектора. С MLPerf Inference v3.0 групата MLCommons има за цел да удвои философията за осигуряване на справедливо и строг тест на възможностите за машинно обучение на устройствата, като същевременно осигуряват проверими и възпроизводими резултати. Резултатите са вече и от още по-голям списък с доставчици от предишни години.
„Изводът“ в машинното обучение се отнася до действителното постигане на резултати от обучен алгоритъм, където моделът след това може да идентифицира какво е обучен да разпознава. Виждаме изводи, използвани във всички сфери на живота, включително самоуправляващи се коли, предложения за търсене в Google и дори чатботове с изкуствен интелект като
ChatGPT, Bing Chat или Google Bard. MLPerf v3.0 може да тества следните задачи:Задача |
Приложения от реалния свят |
Препоръка |
Съдържание или препоръки за пазаруване като търсене, социални медии или реклами |
Гласово разпознаване |
Преобразуване на реч в текст на смартфони, помощ за водача със свободни ръце |
Обработка на естествен език (NLP) |
Търсене, превод, чатботове |
Класификация на изображенията |
Етикетиране на изображения, обща визия |
Откриване на обект |
Откриване на пешеходци, откриване на производствени дефекти, намаляване на ефекта "червени очи". |
3D сегментиране |
Анализ на медицински изображения (напр. идентификация на тумор) |
Има над 5300 резултата за производителност и повече от 2400 резултата от измерване на мощността в базата данни с резултати за MLPerf v3.0. По-специално, тенденции които бяха идентифицирани, включват много нови хардуерни системи, използвани с повишена производителност в компонентите на центъра за данни от около 30% в някои бенчмаркове. Също така, много повече податели дадоха резултати, свързани с енергийната ефективност, и имаше трикратно увеличение на интереса към извода на мрежата.
Nvidia, която е опора на подаванията на MLPerf в продължение на няколко години, представи първите резултати за своя DGX H100 и първото си представяне за своя L4 Tensor Core GPU. DGX H100 предложи до 54% по-висока производителност на ускорител в сравнение с първите си подавания на H100, а L4 даде до три пъти по-висока производителност от последното поколение T4.
Други компании, които представиха резултати, включват Qualcomm, за която компанията казва, че „всички показатели показват увеличение на производителността и енергийната ефективност за NLP и Computer Vision networks." Компанията също така описа подробно как след първото представяне на MLPerf 1.0, Qualcomm Cloud AI 100 е подобрен с до 86% в производителността и 52% в мощността ефективност. Други забележителни доставчици, които са изпратили резултати, включват Intel, HPE, Gigabyte, Asus и Dell.