تُظهر نتائج MLPerf Inference v3.0 الاتجاهات الرئيسية على مستوى الصناعة في تحسين الأداء

ظهرت نتائج MLPerf 3.0، وهناك بعض اتجاهات الصناعة المثيرة للاهتمام.

يعد التعلم الآلي والذكاء الاصطناعي صناعة سريعة التغير مع استمرار الابتكار المستمر كل يوم. ولهذا السبب تعد القدرة على مقارنة قدرات الأجهزة أمرًا مهمًا، كما أنه من المهم أيضًا أن يكون هناك هيئة أو هيئات متعددة تساعد في توجيه نمو هذا القطاع. مع MLPerf Inference v3.0، تهدف مجموعة MLCommons إلى مضاعفة فلسفة توفير خدمة عادلة اختبار صارم لقدرات التعلم الآلي للأجهزة مع توفير إمكانية التحقق منها وقابلة للتكرار نتائج. النتائج وصلت الآن، ومن قائمة أكبر من البائعين من السنوات السابقة.

يشير "الاستدلال" في التعلم الآلي إلى النتائج الفعلية من خوارزمية مدربة، حيث يمكن للنموذج بعد ذلك تحديد ما تم تدريبه على التعرف عليه. نحن نرى الاستدلال مستخدمًا في جميع أنواع مناحي الحياة، بما في ذلك السيارات ذاتية القيادة، واقتراحات البحث على Google، وحتى روبوتات الدردشة المدعمة بالذكاء الاصطناعي مثل ChatGPT أو Bing Chat أو Google Bard. يمكن لـ MLPerf v3.0 اختبار المهام التالية:

مهمة

تطبيقات العالم الحقيقي

توصية

توصيات المحتوى أو التسوق مثل البحث أو وسائل التواصل الاجتماعي أو الإعلانات

التعرف على الكلام

تحويل الكلام إلى نص على الهواتف الذكية، ومساعدة السائق دون استخدام اليدين

معالجة اللغات الطبيعية (NLP)

البحث والترجمة وروبوتات الدردشة

تصنيف الصور

وضع العلامات على الصور والرؤية العامة

كشف الكائنات

كشف المشاة، اكتشاف عيوب التصنيع، تقليل العين الحمراء

تجزئة ثلاثية الأبعاد

تحليل الصور الطبية (مثل تحديد الورم)

يوجد أكثر من 5300 نتيجة أداء وأكثر من 2400 نتيجة قياس للطاقة في قاعدة بيانات نتائج MLPerf v3.0. وعلى وجه الخصوص، الاتجاهات التي تم تحديدها تتضمن الكثير من أنظمة الأجهزة الجديدة المستخدمة مع زيادة الأداء في مكونات مركز البيانات بحوالي 30% في بعضها المعايير. بالإضافة إلى ذلك، قدم عدد أكبر بكثير من مقدمي الطلبات نتائج تتعلق بكفاءة الطاقة، وكانت هناك زيادة بمقدار ثلاثة أضعاف في الاهتمام باستنتاج الشبكة.

قدمت Nvidia، التي كانت الدعامة الأساسية لعمليات تقديم MLPerf لعدد من السنوات، النتائج الأولى لـ DGX H100 وأول تقديم لها لوحدة معالجة الرسوميات L4 Tensor Core. قدم DGX H100 أداءً أعلى بنسبة تصل إلى 54% لكل مسرع مقارنةً بأول H100 الذي تم تقديمه، وتخلى L4 عن أداء يصل إلى ثلاثة أضعاف أداء الجيل الأخير T4.

وتشمل الشركات الأخرى التي قدمت نتائجها شركة كوالكوم، التي تقول الشركة إن "جميع المعايير تظهر زيادة في الأداء وكفاءة الطاقة في البرمجة اللغوية العصبية والكمبيوتر". شبكات الرؤية." كما أوضحت الشركة كيف تم تحسين Qualcomm Cloud AI 100، منذ أول تقديم لـ MLPerf 1.0، بنسبة تصل إلى 86% في الأداء و52% في الطاقة. كفاءة. من بين البائعين البارزين الآخرين الذين قدموا النتائج Intel وHPE وGigabyte وAsus وDell.