Die Ergebnisse von MLPerf Inference v3.0 zeigen wichtige branchenweite Trends bei der Leistungsverbesserung

click fraud protection

Die Ergebnisse von MLPerf 3.0 liegen vor und es gibt einige interessante Branchentrends.

Maschinelles Lernen und künstliche Intelligenz sind eine sich schnell verändernde Branche, in der jeden Tag ständige Innovationen stattfinden. Aus diesem Grund ist es wichtig, die Fähigkeiten von Geräten vergleichen zu können und es ist auch wichtig, dass es eine oder mehrere Stellen gibt, die das Wachstum des Sektors steuern. Mit MLPerf Inference v3.0 möchte die MLCommons-Gruppe ihre Philosophie der Bereitstellung einer fairen und fairen Lösung verdoppeln strenger Test der maschinellen Lernfähigkeiten von Geräten und gleichzeitig überprüfbare und reproduzierbare Bereitstellung Ergebnisse. Jetzt liegen die Ergebnisse vor, und zwar von einer noch größeren Liste von Anbietern aus den vergangenen Jahren.

„Inferenz“ beim maschinellen Lernen bezieht sich auf die tatsächliche Erzielung von Ergebnissen aus einem trainierten Algorithmus, wobei das Modell dann identifizieren kann, wozu es trainiert wurde. Wir sehen, dass Schlussfolgerungen in allen Lebensbereichen eingesetzt werden, darunter selbstfahrende Autos, Suchvorschläge bei Google und sogar KI-Chatbots wie

ChatGPT, Bing Chat oder Google Bard. MLPerf v3.0 kann die folgenden Aufgaben testen:

Aufgabe

Anwendungen aus der Praxis

Empfehlung

Inhalte oder Einkaufsempfehlungen wie Suche, soziale Medien oder Werbung

Spracherkennung

Speech-to-Text auf Smartphones, freihändige Fahrerassistenz

Verarbeitung natürlicher Sprache (NLP)

Suche, Übersetzung, Chatbots

Bildklassifizierung

Bildbeschriftung, allgemeine Sicht

Objekterkennung

Fußgängererkennung, Erkennung von Herstellungsfehlern, Reduzierung des Rote-Augen-Effekts

3D-Segmentierung

Medizinische Bildanalyse (z. B. Tumoridentifizierung)

In der Ergebnisdatenbank für MLPerf v3.0 befinden sich über 5.300 Leistungsergebnisse und mehr als 2.400 Leistungsmessergebnisse. Insbesondere Trends Zu den identifizierten Problemen gehört die Verwendung zahlreicher neuer Hardwaresysteme mit teilweise um etwa 30 % gesteigerter Leistung in Rechenzentrumskomponenten Maßstäbe. Darüber hinaus gaben viel mehr Einsender Ergebnisse zur Energieeffizienz an, und das Interesse an Rückschlüssen auf das Netzwerk stieg um das Dreifache.

Nvidia, seit einigen Jahren eine tragende Säule der MLPerf-Einreichungen, hat die ersten Ergebnisse für seinen DGX H100 und seinen ersten Beitrag für seine L4 Tensor Core GPU eingereicht. Der DGX H100 bot bis zu 54 % mehr Leistung pro Beschleuniger im Vergleich zu seinen ersten H100-Modellen, und der L4 bot bis zu dreimal so viel Leistung wie der T4 der letzten Generation.

Zu den weiteren Unternehmen, die Ergebnisse eingereicht haben, gehört Qualcomm. Das Unternehmen sagt, dass „alle Benchmarks eine Steigerung der Leistung und Energieeffizienz für NLP und Computer zeigen“. Vision Networks.“ Das Unternehmen erläuterte außerdem, wie Qualcomm Cloud AI 100 seit seiner ersten MLPerf 1.0-Einreichung um bis zu 86 % in der Leistung und 52 % in der Leistung verbessert wurde Effizienz. Weitere namhafte Anbieter, die Ergebnisse übermittelt haben, sind Intel, HPE, Gigabyte, Asus und Dell.