MLPerf Inference v3.0 sonuçları, performansı artırma konusunda sektör çapındaki önemli eğilimleri gösteriyor

click fraud protection

MLPerf 3.0 sonuçları geldi ve bazı ilginç endüstri trendleri var.

Makine öğrenimi ve yapay zeka, her gün sürekli yeniliklerin devam ettiği, hızla değişen bir endüstridir. Bu nedenle cihazların yeteneklerini karşılaştırabilmek önemlidir ve aynı zamanda sektörün büyümesine rehberlik edecek bir veya birden fazla kuruluşun bulunması da önemlidir. MLPerf Inference v3.0 ile MLCommons grubu, adil ve güvenilir bir ortam sağlama felsefesini ikiye katlamayı hedefliyor. Doğrulanabilir ve tekrarlanabilirlik sağlarken, cihazların makine öğrenimi yeteneklerinin sıkı bir şekilde test edilmesi sonuçlar. Sonuçlar artık önceki yıllara ait çok daha geniş bir satıcı listesinden alınmıştır.

Makine öğrenimindeki "çıkarım", eğitimli bir algoritmadan sonuçların fiilen elde edilmesini ifade eder; burada model daha sonra tanımak üzere eğitildiğini tanımlayabilir. Çıkarımın, sürücüsüz arabalar, Google'daki arama önerileri ve hatta AI sohbet robotları dahil olmak üzere hayatın her alanında kullanıldığını görüyoruz. ChatGPT, Bing Chat veya Google Bard. MLPerf v3.0 aşağıdaki görevleri test edebilir:

Görev

Gerçek dünya uygulamaları

Öneri

Arama, sosyal medya veya reklamlar gibi içerik veya alışveriş önerileri

Konuşma tanıma

Akıllı telefonlarda konuşmayı metne dönüştürme, eller serbest sürücü yardımı

Doğal Dil İşleme (NLP)

Arama, çeviri, sohbet robotları

Görüntü sınıflandırması

Görüntü etiketleme, genel görüş

Nesne algılama

Yaya tespiti, üretim hatası tespiti, kırmızı göz azaltma

3D segmentasyon

Tıbbi görüntü analizi (örneğin, tümör tanımlama)

MLPerf v3.0'ın sonuç veritabanında 5.300'ün üzerinde performans sonucu ve 2.400'ün üzerinde güç ölçümü sonucu bulunmaktadır. Özellikle trendler tespit edilenler arasında veri merkezi bileşenlerinde performansın bazı ülkelerde %30 civarında artırıldığı birçok yeni donanım sistemi yer alıyor kıyaslamalar. Ayrıca, çok daha fazla katılımcı güç verimliliğiyle ilgili sonuçlar verdi ve ağdan çıkarımlara olan ilgide üç kat artış yaşandı.

Birkaç yıldır MLPerf başvurularının dayanak noktası olan Nvidia, DGX H100 için ilk sonuçları ve L4 Tensor Core GPU için ilk başvuruyu sundu. DGX H100, ilk H100 gönderimlerine kıyasla hızlandırıcı başına %54'e kadar daha fazla performans sundu ve L4, son nesil T4'ün performansının üç katına kadar performans gösterdi.

Sonuçları sunan diğer şirketler arasında şirketin "tüm kıyaslamaların NLP ve Bilgisayar için performans ve güç verimliliğinde artış gösterdiğini" söylediği Qualcomm da yer alıyor. Vizyon ağları." Şirket ayrıca, ilk MLPerf 1.0 sunumundan bu yana Qualcomm Cloud AI 100'ün performansta %86'ya ve güçte %52'ye kadar nasıl iyileştirildiğini de açıkladı. yeterlik. Sonuçları sunan diğer önemli satıcılar arasında Intel, HPE, Gigabyte, Asus ve Dell yer alıyor.