MLPerf 3.0 결과가 발표되었으며 몇 가지 흥미로운 업계 동향이 있습니다.
머신러닝과 인공지능은 매일 끊임없는 혁신이 진행되는 빠르게 변화하는 산업입니다. 그렇기 때문에 장치의 기능을 비교할 수 있는 것이 중요하고 해당 부문의 성장을 안내하는 데 도움이 되는 하나 이상의 기관이 존재하는 것도 중요합니다. MLPerf Inference v3.0을 통해 MLCommons 그룹은 공정하고 검증 가능하고 재현 가능한 기능을 제공하면서 장치의 기계 학습 기능에 대한 엄격한 테스트 결과. 결과는 이제 이전 연도보다 훨씬 더 많은 공급업체 목록에 포함되어 있습니다.
기계 학습의 "추론"은 훈련된 알고리즘에서 실제로 결과를 산출하는 것을 의미하며, 여기서 모델은 훈련을 통해 인식한 내용을 식별할 수 있습니다. 자율주행차, Google의 추천 검색어, AI 챗봇 등 모든 분야에서 추론이 사용되는 것을 볼 수 있습니다. ChatGPT, Bing Chat 또는 Google Bard. MLPerf v3.0은 다음 작업을 테스트할 수 있습니다.
일 |
실제 응용 프로그램 |
추천 |
검색, 소셜 미디어, 광고 등 콘텐츠 또는 쇼핑 추천 |
음성 인식 |
스마트폰 음성 텍스트 변환, 핸즈프리 운전자 지원 |
자연어 처리(NLP) |
검색, 번역, 챗봇 |
이미지 분류 |
이미지 라벨링, 일반 비전 |
객체 감지 |
보행자 감지, 제조 결함 감지, 적목 현상 감소 |
3D 분할 |
의료 영상 분석(예: 종양 식별) |
MLPerf v3.0의 결과 데이터베이스에는 5,300개 이상의 성능 결과와 2,400개 이상의 전력 측정 결과가 있습니다. 특히, 트렌드 확인된 것에는 일부 지역에서 약 30% 정도 데이터 센터 구성 요소의 성능이 향상된 새로운 하드웨어 시스템이 많이 포함되어 있습니다. 벤치마크. 또한, 전력 효율성과 관련된 결과를 제출한 제출자가 훨씬 많아졌고, 네트워크 추론에 대한 관심도 3배 증가했습니다.
수년 동안 MLPerf 제출의 중심이었던 Nvidia는 DGX H100에 대한 첫 번째 결과와 L4 Tensor Core GPU에 대한 첫 번째 제출을 제출했습니다. DGX H100은 첫 번째 H100 제출에 비해 가속기당 최대 54% 더 높은 성능을 제공했으며, L4는 마지막 세대 T4보다 최대 3배 더 높은 성능을 제공했습니다.
결과를 제출한 다른 회사로는 Qualcomm이 있으며, "모든 벤치마크에서 NLP 및 컴퓨터의 성능과 전력 효율성이 증가한 것으로 나타났습니다." 비전 네트워크." 또한 회사는 첫 번째 MLPerf 1.0 제출 이후 Qualcomm Cloud AI 100이 어떻게 성능이 최대 86%, 전력이 52% 향상되었는지 자세히 설명했습니다. 능률. 결과를 제출한 다른 주목할만한 공급업체로는 Intel, HPE, Gigabyte, Asus 및 Dell이 있습니다.