Резултатите от MLPerf Inference v3.0 показват основни тенденции в индустрията за подобряване на производителността

Резултатите от MLPerf 3.0 са готови и има някои интересни тенденции в индустрията.

Машинното обучение и изкуственият интелект са бързо променяща се индустрия с постоянни иновации, протичащи всеки ден. Ето защо възможността за сравняване на възможностите на устройствата е важна и защо също така е важно да има тяло или множество тела, които да помагат за насочването на растежа на сектора. С MLPerf Inference v3.0 групата MLCommons има за цел да удвои философията за осигуряване на справедливо и строг тест на възможностите за машинно обучение на устройствата, като същевременно осигуряват проверими и възпроизводими резултати. Резултатите са вече и от още по-голям списък с доставчици от предишни години.

„Изводът“ в машинното обучение се отнася до действителното постигане на резултати от обучен алгоритъм, където моделът след това може да идентифицира какво е обучен да разпознава. Виждаме изводи, използвани във всички сфери на живота, включително самоуправляващи се коли, предложения за търсене в Google и дори чатботове с изкуствен интелект като

ChatGPT, Bing Chat или Google Bard. MLPerf v3.0 може да тества следните задачи:

Задача

Приложения от реалния свят

Препоръка

Съдържание или препоръки за пазаруване като търсене, социални медии или реклами

Гласово разпознаване

Преобразуване на реч в текст на смартфони, помощ за водача със свободни ръце

Обработка на естествен език (NLP)

Търсене, превод, чатботове

Класификация на изображенията

Етикетиране на изображения, обща визия

Откриване на обект

Откриване на пешеходци, откриване на производствени дефекти, намаляване на ефекта "червени очи".

3D сегментиране

Анализ на медицински изображения (напр. идентификация на тумор)

Има над 5300 резултата за производителност и повече от 2400 резултата от измерване на мощността в базата данни с резултати за MLPerf v3.0. По-специално, тенденции които бяха идентифицирани, включват много нови хардуерни системи, използвани с повишена производителност в компонентите на центъра за данни от около 30% в някои бенчмаркове. Също така, много повече податели дадоха резултати, свързани с енергийната ефективност, и имаше трикратно увеличение на интереса към извода на мрежата.

Nvidia, която е опора на подаванията на MLPerf в продължение на няколко години, представи първите резултати за своя DGX H100 и първото си представяне за своя L4 Tensor Core GPU. DGX H100 предложи до 54% ​​по-висока производителност на ускорител в сравнение с първите си подавания на H100, а L4 даде до три пъти по-висока производителност от последното поколение T4.

Други компании, които представиха резултати, включват Qualcomm, за която компанията казва, че „всички показатели показват увеличение на производителността и енергийната ефективност за NLP и Computer Vision networks." Компанията също така описа подробно как след първото представяне на MLPerf 1.0, Qualcomm Cloud AI 100 е подобрен с до 86% в производителността и 52% в мощността ефективност. Други забележителни доставчици, които са изпратили резултати, включват Intel, HPE, Gigabyte, Asus и Dell.