Są już wyniki MLPerf 3.0 i można dostrzec kilka interesujących trendów w branży.
Uczenie maszynowe i sztuczna inteligencja to szybko zmieniająca się branża, w której każdego dnia wprowadzane są ciągłe innowacje. Dlatego ważna jest możliwość porównania możliwości urządzeń i dlatego ważne jest również istnienie jednego lub wielu organów, które pomogą kierować rozwojem sektora. Dzięki MLPerf Inference v3.0 grupa MLCommons zamierza podwoić filozofię zapewniania uczciwego i rygorystyczny test możliwości urządzeń w zakresie uczenia maszynowego, zapewniając jednocześnie weryfikowalność i powtarzalność wyniki. Wyniki są już dostępne i pochodzą z jeszcze większej listy dostawców z poprzednich lat.
„Wnioskowanie” w uczeniu maszynowym odnosi się do rzeczywistego uzyskiwania wyników z wyuczonego algorytmu, w przypadku którego model może następnie zidentyfikować to, co ma rozpoznawać. Widzimy, że wnioskowanie jest wykorzystywane we wszystkich dziedzinach życia, w tym w samochodach autonomicznych, sugestiach wyszukiwania w Google, a nawet w chatbotach AI, takich jak
ChatGPT, Bing Chat lub Google Bard. MLPerf v3.0 może testować następujące zadania:Zadanie |
Aplikacje w świecie rzeczywistym |
Rekomendacje |
Treści lub rekomendacje dotyczące zakupów, takie jak wyszukiwanie, media społecznościowe lub reklamy |
Rozpoznawanie mowy |
Zamiana mowy na tekst na smartfonach, wspomaganie kierowcy bez użycia rąk |
Przetwarzanie języka naturalnego (NLP) |
Wyszukiwanie, tłumaczenie, chatboty |
Klasyfikacja obrazu |
Etykietowanie obrazu, ogólna wizja |
Wykrywanie obiektów |
Wykrywanie pieszych, wykrywanie wad produkcyjnych, redukcja efektu czerwonych oczu |
Segmentacja 3D |
Analiza obrazu medycznego (np. identyfikacja guza) |
W bazie danych wyników oprogramowania MLPerf v3.0 znajduje się ponad 5300 wyników wydajności i ponad 2400 wyników pomiarów mocy. W szczególności trendy które zostały zidentyfikowane, obejmują wiele nowych systemów sprzętowych, w których wydajność komponentów centrum danych wzrosła w niektórych przypadkach o około 30%. punkty odniesienia. Ponadto znacznie więcej zgłaszających przedstawiło wyniki dotyczące efektywności energetycznej, a zainteresowanie wnioskowaniem o sieci wzrosło trzykrotnie.
Nvidia, która od wielu lat jest głównym bohaterem zgłoszeń do MLPerf, przedstawiła pierwsze wyniki dla karty DGX H100 i pierwsze zgłoszenie dla procesora graficznego L4 Tensor Core. DGX H100 oferował do 54% większą wydajność na akcelerator w porównaniu do pierwszych zgłoszeń H100, a L4 zapewniał nawet trzykrotnie większą wydajność niż T4 ostatniej generacji.
Inne firmy, które przedstawiły wyniki, to Qualcomm, według którego „wszystkie testy porównawcze wykazują wzrost wydajności i efektywności energetycznej w przypadku NLP i komputerów Sieci wizyjne.” Firma szczegółowo opisała, jak od czasu pierwszego przesłania MLPerf 1.0 Qualcomm Cloud AI 100 poprawiono wydajność nawet o 86% i moc o 52%. efektywność. Inni znani dostawcy, którzy przesłali wyniki, to Intel, HPE, Gigabyte, Asus i Dell.