Wyniki MLPerf Inference v3.0 pokazują główne ogólnobranżowe trendy w poprawie wydajności

click fraud protection

Są już wyniki MLPerf 3.0 i można dostrzec kilka interesujących trendów w branży.

Uczenie maszynowe i sztuczna inteligencja to szybko zmieniająca się branża, w której każdego dnia wprowadzane są ciągłe innowacje. Dlatego ważna jest możliwość porównania możliwości urządzeń i dlatego ważne jest również istnienie jednego lub wielu organów, które pomogą kierować rozwojem sektora. Dzięki MLPerf Inference v3.0 grupa MLCommons zamierza podwoić filozofię zapewniania uczciwego i rygorystyczny test możliwości urządzeń w zakresie uczenia maszynowego, zapewniając jednocześnie weryfikowalność i powtarzalność wyniki. Wyniki są już dostępne i pochodzą z jeszcze większej listy dostawców z poprzednich lat.

„Wnioskowanie” w uczeniu maszynowym odnosi się do rzeczywistego uzyskiwania wyników z wyuczonego algorytmu, w przypadku którego model może następnie zidentyfikować to, co ma rozpoznawać. Widzimy, że wnioskowanie jest wykorzystywane we wszystkich dziedzinach życia, w tym w samochodach autonomicznych, sugestiach wyszukiwania w Google, a nawet w chatbotach AI, takich jak

ChatGPT, Bing Chat lub Google Bard. MLPerf v3.0 może testować następujące zadania:

Zadanie

Aplikacje w świecie rzeczywistym

Rekomendacje

Treści lub rekomendacje dotyczące zakupów, takie jak wyszukiwanie, media społecznościowe lub reklamy

Rozpoznawanie mowy

Zamiana mowy na tekst na smartfonach, wspomaganie kierowcy bez użycia rąk

Przetwarzanie języka naturalnego (NLP)

Wyszukiwanie, tłumaczenie, chatboty

Klasyfikacja obrazu

Etykietowanie obrazu, ogólna wizja

Wykrywanie obiektów

Wykrywanie pieszych, wykrywanie wad produkcyjnych, redukcja efektu czerwonych oczu

Segmentacja 3D

Analiza obrazu medycznego (np. identyfikacja guza)

W bazie danych wyników oprogramowania MLPerf v3.0 znajduje się ponad 5300 wyników wydajności i ponad 2400 wyników pomiarów mocy. W szczególności trendy które zostały zidentyfikowane, obejmują wiele nowych systemów sprzętowych, w których wydajność komponentów centrum danych wzrosła w niektórych przypadkach o około 30%. punkty odniesienia. Ponadto znacznie więcej zgłaszających przedstawiło wyniki dotyczące efektywności energetycznej, a zainteresowanie wnioskowaniem o sieci wzrosło trzykrotnie.

Nvidia, która od wielu lat jest głównym bohaterem zgłoszeń do MLPerf, przedstawiła pierwsze wyniki dla karty DGX H100 i pierwsze zgłoszenie dla procesora graficznego L4 Tensor Core. DGX H100 oferował do 54% większą wydajność na akcelerator w porównaniu do pierwszych zgłoszeń H100, a L4 zapewniał nawet trzykrotnie większą wydajność niż T4 ostatniej generacji.

Inne firmy, które przedstawiły wyniki, to Qualcomm, według którego „wszystkie testy porównawcze wykazują wzrost wydajności i efektywności energetycznej w przypadku NLP i komputerów Sieci wizyjne.” Firma szczegółowo opisała, jak od czasu pierwszego przesłania MLPerf 1.0 Qualcomm Cloud AI 100 poprawiono wydajność nawet o 86% i moc o 52%. efektywność. Inni znani dostawcy, którzy przesłali wyniki, to Intel, HPE, Gigabyte, Asus i Dell.