Уже получены результаты MLPerf 3.0, и есть несколько интересных тенденций в отрасли.
Машинное обучение и искусственный интеллект — это быстро меняющаяся отрасль, в которой инновации происходят каждый день. Вот почему так важна возможность сравнивать возможности устройств, а также важно, чтобы существовал орган или несколько органов, которые помогали бы направлять рост сектора. С помощью MLPerf Inference v3.0 группа MLCommons стремится удвоить философию обеспечения справедливого и тщательное тестирование возможностей машинного обучения устройств, обеспечивая при этом проверяемые и воспроизводимые Результаты. Результаты уже получены, причем из еще большего списка поставщиков за предыдущие годы.
«Вывод» в машинном обучении означает фактическое получение результатов обученным алгоритмом, при котором модель может затем определить то, что она была обучена распознавать. Мы видим, как логические выводы используются во всех сферах жизни, включая беспилотные автомобили, поисковые предложения в Google и даже чат-боты с искусственным интеллектом, такие как
ChatGPT, Bing Chat или Google Bard. MLPerf v3.0 может тестировать следующие задачи:Задача |
Реальные приложения |
Рекомендация |
Рекомендации по контенту или покупкам, такие как поиск, социальные сети или реклама. |
Распознавание речи |
Преобразование речи в текст на смартфонах, помощь водителю без помощи рук |
Обработка естественного языка (НЛП) |
Поиск, перевод, чат-боты |
Классификация изображений |
Маркировка изображений, общее видение |
Обнаружение объектов |
Обнаружение пешеходов, обнаружение производственных дефектов, уменьшение эффекта «красных глаз» |
3D-сегментация |
Анализ медицинских изображений (например, идентификация опухолей) |
В базе данных результатов MLPerf v3.0 содержится более 5300 результатов производительности и более 2400 результатов измерения мощности. В частности, тенденции В число выявленных случаев входит использование множества новых аппаратных систем с повышенной производительностью компонентов центров обработки данных примерно на 30 % в некоторых случаях. ориентиры. Кроме того, гораздо больше участников представили результаты, касающиеся энергоэффективности, а интерес к анализу сети увеличился в три раза.
Nvidia, которая в течение ряда лет была опорой заявок на MLPerf, представила первые результаты для своего DGX H100 и свою первую заявку для своего графического процессора L4 Tensor Core. DGX H100 обеспечивал до 54% большую производительность на ускоритель по сравнению с первыми моделями H100, а L4 уступал в три раза производительности по сравнению с T4 последнего поколения.
Другие компании, представившие результаты, включают Qualcomm, который заявляет, что «все тесты показывают увеличение производительности и энергоэффективности для NLP и компьютерных технологий». Vision Networks». Компания также подробно рассказала, как с момента первого представления MLPerf 1.0 Qualcomm Cloud AI 100 был улучшен на 86% по производительности и на 52% по мощности. эффективность. Среди других известных поставщиков, представивших результаты, — Intel, HPE, Gigabyte, Asus и Dell.