Los resultados de MLPerf Inference v3.0 muestran las principales tendencias en toda la industria para mejorar el rendimiento

click fraud protection

Los resultados de MLPerf 3.0 ya están disponibles y hay algunas tendencias interesantes en la industria.

El aprendizaje automático y la inteligencia artificial son una industria que cambia rápidamente con una innovación constante todos los días. Por eso es importante poder comparar las capacidades de los dispositivos y también es importante que haya un organismo o varios organismos que ayuden a guiar el crecimiento del sector. Con MLPerf Inference v3.0, el grupo MLCommons pretende duplicar la filosofía de proporcionar una experiencia justa y prueba rigurosa de las capacidades de aprendizaje automático de los dispositivos al tiempo que proporciona datos verificables y reproducibles resultados. Los resultados ya están disponibles y provienen de una lista aún mayor de proveedores de años anteriores.

La "inferencia" en el aprendizaje automático se refiere a la obtención real de resultados de un algoritmo entrenado, donde el modelo puede identificar aquello para lo que ha sido entrenado para reconocer. Vemos que la inferencia se utiliza en todo tipo de ámbitos de la vida, incluidos los automóviles autónomos, las sugerencias de búsqueda en Google e incluso los chatbots de inteligencia artificial como

ChatGPT, Bing Chat o Google Bard. MLPerf v3.0 puede probar las siguientes tareas:

Tarea

Aplicaciones del mundo real

Recomendación

Recomendaciones de contenido o compras, como búsquedas, redes sociales o anuncios.

Reconocimiento de voz

Conversión de voz a texto en teléfonos inteligentes, asistencia al conductor con manos libres

Procesamiento del lenguaje natural (PNL)

Búsqueda, traducción, chatbots

Clasificación de imágenes

Etiquetado de imágenes, visión general.

Detección de objetos

Detección de peatones, detección de defectos de fabricación, reducción de ojos rojos

segmentación 3D

Análisis de imágenes médicas (p. ej., identificación de tumores)

Hay más de 5300 resultados de rendimiento y más de 2400 resultados de mediciones de potencia en la base de datos de resultados de MLPerf v3.0. En particular, las tendencias que se identificaron incluyen una gran cantidad de nuevos sistemas de hardware que se utilizan con un mayor rendimiento en los componentes del centro de datos de alrededor del 30% en algunos puntos de referencia. Además, muchos más participantes dieron resultados relacionados con la eficiencia energética y se triplicó el interés en inferir la red.

Nvidia, que ha sido un pilar de las presentaciones de MLPerf durante varios años, presentó los primeros resultados para su DGX H100 y su primera presentación para su GPU L4 Tensor Core. El DGX H100 ofrecía hasta un 54% más de rendimiento por acelerador en comparación con sus primeras presentaciones H100, y el L4 ofrecía hasta tres veces el rendimiento del T4 de última generación.

Otras empresas que presentaron resultados incluyen a Qualcomm, que según la compañía "todos los puntos de referencia muestran un aumento en el rendimiento y la eficiencia energética para PNL y Computadora". Redes de visión." La compañía también detalló cómo desde su primera presentación de MLPerf 1.0, Qualcomm Cloud AI 100 ha mejorado hasta un 86% en rendimiento y un 52% en potencia. eficiencia. Otros proveedores notables que presentaron resultados incluyen Intel, HPE, Gigabyte, Asus y Dell.