Entrevista: Qualcomm sobre la IA y el DSP Hexagon 690 del Snapdragon 855

click fraud protection

Gary Brotman y Ziad Asghar de Qualcomm se sentaron con XDA para una entrevista sobre el estado de la IA y las novedades del Hexagon 690 DSP en el Snapdragon 855.

Cuando Qualcomm presentó su nuevo Plataforma móvil Snapdragon 855, promocionaron mejoras sustanciales en todos los aspectos de la informática móvil. Para el usuario medio, es fácil entender el Beneficios para el usuario final detrás de las mejoras de CPU y GPU. que Qualcomm hizo en el Snapdragon 855. Un mejor rendimiento de la CPU se traduce en aplicaciones que se cargan más rápido y un mejor rendimiento de la GPU se traduce en mejores cuadros por segundo cuando se juega. Lo que es menos intuitivo de entender para los usuarios es la IA (inteligencia artificial) y, específicamente, Técnicas de aprendizaje automático que las aplicaciones y los servicios adoptan cada vez más, como las neuronas artificiales. redes. Qualcomm logró enormes avances en el rendimiento de la carga de trabajo de IA con el Snapdragon 855 gracias a las mejoras en la informática en todos los ámbitos, y especialmente debido al renovado Hexagon 690 DSP. Nos sentamos con Gary Brotman, director de estrategia de IA y aprendizaje automático y planificación de productos de Qualcomm, y Ziad Asghar, vicepresidente de Planificación de la hoja de ruta de Snapdragon e IA, XR, estrategia competitiva en Qualcomm, para obtener más información sobre las mejoras que Qualcomm realizó en las cargas de trabajo de IA.


Mario Serrafero: "Entonces, el nuevo DSP. El año pasado, les pregunté sobre la estrategia de ataque con respecto a cómo Qualcomm impulsó, promovió, comercializó y comunicó el DSP y el HVX, en particular. En ese momento, como bloque de IA, todavía era relativamente nuevo para la mayoría de lectores y consumidores. Así que nos preguntamos cómo ha evolucionado esto desde entonces con la promoción del 845".

Gary Brotman: "En primer lugar, cuando empezamos a hacer esto con el 820, todavía estaba muy centrado en la CPU y la GPU, y aprovechaba el DSP y Las capacidades de procesamiento vectorial para eso realmente surgieron como resultado de hacia dónde intenta dirigirse Google con TensorFlow y 8 bits. matemáticas. Ahí es donde realmente estiramos nuestras piernas en DSP, o digamos, en los procesadores vectoriales. Dada la madurez del procesador vectorial que tenemos en Hexagon y la forma en que pudimos avanzar en esa hoja de ruta tan rápidamente en los dos siguientes generaciones y los casos de uso que vimos, que en ese momento, las redes de clasificación básicas eran bastante sencillas y no tenían muchos peso. Pueden funcionar bien con matemáticas de 8 bits. Un acelerador dedicado, incluso el año pasado, era un riesgo porque básicamente asignaba área a algo que tal vez no se usara. La confluencia de casos de uso, y puede ser cualquier cosa, desde una única cámara estándar, súper resolución o segmentación en tiempo real. Estas cosas suceden en algunos casos, al mismo tiempo que exigen tener al menos algún nivel de aceleración dedicada que pueda bloquear y aún leer ciclos en el procesador vectorial o incluso en la GPU. Era el momento adecuado.

Ciertamente es algo que tuvimos que planear mucho antes que cuando hablamos la última vez, pero creo que todos en esta empresa apuesta a que saben exactamente, o casi exactamente, cuáles serán esas cargas de trabajo. Qué tipo de precisión debería ser necesaria y si presupuestaste o no suficiente computación para satisfacer la confluencia de casos de uso que se avecinan. Somos bastante deliberados en eso (Qualcomm siempre se ha centrado en los casos de uso) y no queríamos ejecutar el riesgo de tener una aceleración dedicada que no se usaría porque podría estar desactualizada en los últimos ciclo. Vemos lo suficiente solo en términos de convolución general como para que un acelerador dedicado pueda hacer un trabajo fantástico. Nuevamente, liberando los ciclos en otros lugares. En términos de la estrategia que tenemos con este nuevo acelerador: es dedicado, es una nueva arquitectura. No es un derivado de Hexagon. Pero si piensas en una red actual, hay ciertas funciones no lineales que no funcionan bien con algunas de las aceleraciones dedicadas...

Mario Serrafero: "Sí, sigmoideo, ReLU -"

Gary Brotman: "Exactamente, Softmax. Y tienes que enviarlos a otra parte o a la CPU. Pero en nuestro caso, la forma en que hemos diseñado esto bajo el capó, el DSP es en realidad el control. Determina dónde se ejecuta la red y dónde se ejecutan las capas y puede decidir si hay ciertas cosas que deberían ejecutarse en el DSP como alternativa o ejecutarse en el procesador tensorial. Entonces esa pareja realmente tenía mucho sentido para nosotros. Pero eso no quita valor a nuestras creencias y nuestra estrategia de que cada núcleo primario de nuestro SoC tiene un rol, por lo que optimizamos en todos los ámbitos, pero todavía hay mucha variabilidad y eso va a continuar."

Mario Serrafero: "Otro tema del que queremos hablar son los casos de uso. Como dijiste, Qualcomm se centra mucho en los casos de uso, hemos visto la IA llegar a los dispositivos móviles en tres áreas principales: reconocimiento de voz, predicción de secuencias como con cadenas y escritura, y obviamente visión por computadora como filtros de IA, [y objetos reconocimiento]. La visión por computadora explotó, ahora se ve en todas partes. He visto con el reconocimiento de voz que todos tienen su propio asistente de inteligencia artificial, todos tienen su propio asistente. Ahora, todo eso se puede hacer en el borde con una latencia pequeña y una seguridad perfecta. Pero, ¿qué sigue para los casos de uso del aprendizaje automático? ¿Todos esos casos de uso serán desarrollados por las grandes empresas del mundo: todos los Snapchats del mundo, los Facebook? ¿Cómo ves eso rodando?".

Gary Brotman: "No creo que pueda señalar un caso de uso excelente. Pero las capacidades permiten una mayor complejidad computacional y, en el caso de la visión, la resolución de entrada puede ser mayor. No estás trabajando en imágenes de baja resolución para hacer bokeh. Hubo una discusión anteriormente en la otra entrevista que tuvimos sobre la transmisión 4K como ejemplo. No voy a predecir que eso sea posible, pero los desarrolladores con los que trabajamos, ya sean grandes empresas como Google o nuestra socios de desarrollo de software que realmente están creando los algoritmos que impulsan muchas de estas funciones móviles, solo quieren empujar más. Quieren llegar más lejos. Si hay algo que vería en términos de los próximos pasos, probablemente sería menos sobre lo que está sucediendo por encima de la línea o en el nivel de la aplicación, y más sobre lo que está sucediendo en el sistema, como mejorar la forma en que funciona el producto, la administración de energía e incluso en la tubería de la cámara, no solo encima de él. Mencionaste el audio y cuántas palabras clave admitirás o si podrías realizar la cancelación de ruido en el dispositivo. La palabra clave es interesante porque no es fácil crear la biblioteca: tienes memoria limitada. Así que todavía habrá un equilibrio entre lo que es local y lo que sucederá en la nube".

Ziad Asghar: "Puedo añadir un poco. Entonces, al menos los dos dominios en los que está creciendo mucho hoy en día son el audio y las imágenes. Podemos ver que tiene muchos casos de uso. Jack habló de ello desde la perspectiva de la cámara, teníamos el motor de inteligencia artificial donde se puede aprovechar mucho de eso para casos de uso de imágenes. Algunas de las que se mostraron hoy. Y luego, si nos fijamos en el audio, no hablamos mucho sobre ello, pero en realidad también agregamos algunas capacidades de audio al bloque de audio. Podemos realizar una mejor activación por voz en entornos más ruidosos. Podemos lograr una mejor cancelación de ruido [en imágenes]. Básicamente, todas esas habilidades ya están sucediendo. Están los socios que Gary mostró hoy para el ISP, y habrá muchos más por venir. Así que creo que esas son las dos dimensiones en las que estamos más centrados hoy".

Gary Brotman: "Y luego el siguiente paso (no voy a pronosticar cuándo sucederá esto) es que ahora hay suficiente computación para El aprendizaje en el dispositivo y la experimentación en torno al aprendizaje real en el dispositivo probablemente ocurrirán en el próximo ciclo."

Mario Serrafero: "Este es probablemente un tema que es más divertido de discutir, y es el hecho de que Qualcomm se apega al apodo de Hexagon DSP y HVX, mientras que otras compañías optan por "neural" tal o cual cosa. ¿Cómo ve Qualcomm esta discrepancia y estas diferentes estrategias y enfoques principalmente con el marketing, pero podemos profundizar un poco más adelante en el cómputo heterogéneo frente a los bits de bloques específicos como Bueno."

Gary Brotman: "Debido a que Hexagon ya tiene capital acumulado en DSP, uno inmediatamente se inclinaría a pensar que simplemente estamos ampliando nuestra estrategia de DSP. En realidad, en cuanto a la marca, si observa los tres procesadores, su escalar, su vector y ahora su acelerador tensorial dedicado, no todos son DSP. Hexagon es realmente una marca de mayor nivel que solo DSP. Hay un puñado de DSP. Creo que las preguntas de marketing probablemente sean un poco más difíciles de responder porque cada región es diferente. China está muy centrada en la NPU porque es un apodo que se introdujo el año pasado y que parece haber echado raíces. No diría que eso haya funcionado en otras partes del mundo. Google tiene un procesador tensorial y el tensor parece resonar".

Las mejoras del Qualcomm Snapdragon 855 en el rendimiento de las cargas de trabajo de IA. Fuente: Qualcomm.

Mario Serrafero: "Muchas personas tienen sus propios nombres diferentes".

Gary Brotman: "En última instancia, todo se reduce a lo que el OEM quiere hacer. Si eso es importante para sus clientes, entonces les corresponde descubrir cómo pueden aprovechar esa capacidad de procesamiento y diferenciarla en términos de capacidades. Nuestro motor, y creo que gran parte de la capacidad de procesamiento que tenemos, seguiría estando muy centrado en vectores y tensores en términos de la combinación general. El procesamiento dedicado en sí, la forma en que realiza la multiplicación de matrices, es el mismo tipo de procesador dedicado que estaría [usando] una NPU. La pregunta de marketing es interesante y se me olvida cuál fue la respuesta de Keith".

Ziad Asghar: "Su respuesta fue: 'puedes llamarlo como quieras, para poder vender más productos'".

Gary Brotman: "Eso fue todo; Así fue, fue una respuesta muy contundente".

Ziad Asghar: "Creo que Gary lo cubrió muy bien. Algunas de las personas usan ese apodo como término de una manera que casi indica o implica que solo lo limita a ese bloque. Pero lo que vemos es que todo este enfoque heterogéneo de poder usar la CPU, o una GPU, o un tensor hexagonal vector, le ofrece diferentes compensaciones en todo un espectro de precisión en potencia y rendimiento, y eso es lo que necesita hoy. Porque no sabemos qué aplicación requiere qué grado de precisión, qué requiere un rendimiento sostenido o qué no lo requiere. Por eso creemos que es una solución completa y general porque así es como se obtiene la mejor experiencia".

Gary Brotman: "Y eso nunca ha cambiado en ninguna de nuestras conversaciones, incluso con un acelerador dedicado. Es una adición, no un reemplazo".

Mario Serrafero: "Sí, creo que fue Keith el año pasado quien dijo: 'donde haya computación, habrá IA'. Y ahora hay más computación".

Gary Brotman: "Más cálculo en cada bloque, eso es exactamente lo correcto".

Mario Serrafero: "NORTEAhora que estamos en el tema, hemos escuchado muchas comparaciones con un “misterioso” competidor de 7 nm en Android. Sí, todavía no tenemos idea de quién es". (hablado en chiste)

Gary Brotman: "Ni idea." (hablado en broma)

Mario Serrafero: "Pero, ¿podrías darnos alguna pista sobre estas comparaciones? ¿Cómo se midieron? ¿Qué advertencias vale la pena considerar? ¿Algún otro comentario que tal vez no hayan tenido tiempo de ampliar en las diapositivas o en las preguntas y respuestas? Sé que es un poco difícil de medir [y comunicar] debido a la variedad de modelos, así que creo que es un tema interesante que ampliar para que la gente sepa por qué no es tan fácil hacer esos comparaciones."

Gary Brotman: "En realidad es bastante simple. Te daré una respuesta muy sencilla sobre una métrica específica; Haremos más evaluaciones comparativas en enero. Hablaremos más sobre las diferentes redes que se utilizan para medir los números en los que nos basamos, y esa sería la versión estándar de Inception v3. De ahí es de donde derivamos ese desempeño y nuestra comprensión de dónde se ubica la competencia. Pero en términos del que ha anunciado y ha salido con productos al mercado, ahí es donde viene el 2x y el 3x. de... bueno, el 3x estaba en contra de lo que teníamos en 845, mientras que el 2x es su medida de rendimiento y el estado de rendimiento relativo. al nuestro."

Ziad Asghar: "Tienes dispositivos disponibles, puedes adquirirlos y realizar algunas pruebas tú mismo. Pero creo que lo único contra lo que me protegería es una especie de Salvaje Oeste de evaluación comparativa de la IA. Algunas personas utilizan términos muy generalizados o combinaciones de redes que podrían beneficiarles de una manera particular o no. "¿Eso se alineará bien con una carga de trabajo modal?" No es algo que la gente tenga en cuenta. Algunos de los puntos de referencia que han estado circulando hacen mucho más de eso, y estamos muy cerca, por lo que Sé que hay personas que están haciendo que esos puntos de referencia se inclinen de una manera u otra dependiendo de lo que favorezca. a ellos. Por eso se trata más de casos de uso reales. También se trata mucho más de obtener el mejor rendimiento de su clase para ese caso de uso, y luego de hacerlo más rápido. Creo que esos son todos los factores que analizamos. Pero creo que mejorará, convergerá. En este momento, existe una variedad de opciones diferentes. Creo que se mantendrán ciertos puntos de referencia que tendrán más sentido. Hoy en día, tal vez se podría argumentar que Inception v3 es relativamente mejor en este momento".

Gary Brotman: "En términos de redes, hay un puñado. Están ResNet, VGG, redes de segmentación, redes de súper resolución: rendimiento bruto con el que se pueden medir. Lo que hay que sacar en términos de puntos de referencia, como empresas o entidades que realizan análisis comparativos de IA, y ellos tienen mezclas de precisiones, redes y fórmulas que son variables, son tan variables que los resultados cambian semana a semana. Ahí es donde realmente estamos en el Salvaje Oeste, y nos mantenemos a distancia. No vamos a hacer nuestras apuestas en ninguna parte, porque hay mucha variabilidad en lo que respecta al rendimiento real de algunas de estas redes. que se utilizan en casos de uso, estamos seguros de que definitivamente todavía estamos en la clasificación en términos de rendimiento en relación con el competencia. Debería decir no ranking sino la duplicación de la que hablamos, rendimiento bruto".

Mario Serrafero: "Uno de los temas que nos interesa como sitio principalmente para desarrolladores es la democratización del aprendizaje automático. Obviamente, tenemos bibliotecas de código abierto que son geniales, todos ofrecen también estos increíbles SDK y hay mucha educación. Y ahora Android NN está disponible y Google acaba de lanzarlo Kit de aprendizaje automático lo que simplifica el proceso. Simplemente llamas a una API, le das tu entrada, ellos usan un modelo entrenado, no tienes que preocuparte por eso. no tienes que pensar en ello, no tienes que saber ninguna estadística ni ningún cálculo vectorial. ¿Cómo ve que ha evolucionado el panorama en este sentido haciéndolo más accesible, simplificando la API, simplificar la documentación, los SDK y promover la inclusión de desarrolladores externos, no solo grandes ¿compañías?"

Gary Brotman: "Es curioso que cuando nos centramos en las grandes empresas, ayudamos también a los desarrolladores más pequeños. Comenzamos con una pila más patentada en lo que respecta a la programación para Snapdragon, específicamente para ejecutar IA. Pero con el tiempo, y en las últimas dos generaciones, hemos agregado más herramientas. Estamos tratando de lograr un equilibrio entre la abstracción de alto nivel y la facilidad de uso, y el acceso de nivel inferior, que requiere que alguien ser mucho más inteligentes, especialmente cuando se trata de lidiar con algunos de nuestros núcleos propietarios, como el procesador vectorial o la NPU. Lo vemos evolucionar desde el punto de vista de la democratización. Tenemos los componentes básicos como las bibliotecas matemáticas de Hexagon y Qualcomm, pero tal vez una API de nivel ligeramente superior que abstraiga al menos parte de ese trabajo pesado. pero brinda suficiente flexibilidad al desarrollador para poder usar sus propios operadores personalizados o poder modificar un poco en términos de rendimiento en el nivel inferior. nivel. Por lo tanto, la cartera seguirá incluyendo más herramientas y, ciertamente, cosas como NN API, donde Onyx es un ejemplo de capacidad para básicamente diga "esto es lo que estás programando, en qué estás expresando tu red". Mientras el hardware lo admita, estás bien.

Como mencioné en nuestra presentación, somos responsables de un panorama de múltiples sistemas operativos. Está Windows, está Linux, está Android, así que no se trata sólo de Android. Cuando miramos esto, si vamos a construir algún tipo de API que sea SoC, cross-SoC o multiplataforma desde el punto de vista del sistema operativo, tenemos que mirar y ver cómo encontrar puntos en común en lo que construimos bajo el capucha. La pila con bibliotecas y soporte para operadores y que pueda conectarse a NN API o Windows ML, por ejemplo. Pero ciertamente hemos pasado del péndulo a estar aquí donde nadie sabe realmente qué hacer, como literalmente, sin saber. “No sé qué marco usar. ¿Utilizo TensorFlow o debería usar Caffe o Torch? Y sin saber qué hacer para optimizar en el nivel inferior. Entonces todos están contentos con una llamada API. Ahora, en tan sólo un par de años, es fácil profundizar más. Así que las herramientas están ahí, ya sean herramientas comunes de código abierto, o incluso en una cartera como la que ofrecemos nosotros o la de la competencia, esas herramientas son cada vez más accesibles y fáciles de usar".

Motor de IA de Qualcomm y marcos de trabajo, sistemas operativos, ecosistemas, funciones y dispositivos de IA compatibles. Fuente: Qualcomm.

Mario Serrafero: "Hablando de comunidades de desarrolladores. La última vez mencionamos que una de las comunidades más maduras que tenemos es la comunidad de juegos, y Qualcomm está bastante bien integrada en ella. Ahora vemos eso más que nunca con las asociaciones con los motores de juegos que se están promoviendo y comercializando. Así que estábamos hablando de eso en el contexto de la IA y de cómo está surgiendo allí".

Mishaal Rahman: "Estabas hablando de que querías invertir más durante los próximos 12 meses. Esto fue durante la última vez que estuvimos aquí".

Mario Serrafero: "Específicamente en la comunidad de desarrolladores de juegos, ampliar eso y lo que vemos hoy".

Gary Brotman: "No recuerdo el comentario específico sobre invertir en la comunidad de jugadores, pero si nos fijamos en una categoría que vimos impulsando la necesidad de aceleración dedicada, y los juegos son un componente de esto, pero no es necesariamente el caso de uso principal: la realidad virtual como una ejemplo. En una experiencia de realidad virtual rica e inmersiva, básicamente se aprovechan todos los núcleos. Estás realizando procesamiento de gráficos en la GPU, procesamiento visual en el procesador vectorial y la necesidad de tome una o varias redes y ejecútelas por separado en un acelerador dedicado sin preocuparse por la concurrencia impacto. Esa es una de las razones que nos llevó a tomar el camino de tener aceleración dedicada. No tengo mucha información sobre cómo se aprovecha la IA en los juegos actuales. Hay mucho trabajo con agentes: desarrollar agentes para combatir o enseñarte".

Mario Serrafero: "Como la IA tradicional en los juegos".

Gary Brotman: "Exactamente correcto. Pero al estar más basado en redes neuronales".

Mario Serrafero: "Sí, no el Minimax."

Gary Brotman: "Parte de la responsabilidad de Ziad también es impulsar la estrategia XR."

Ziad Asghar: "En cuanto a XR, si lo miras hoy, hemos lanzado nuevos dispositivos que son HMD todo en uno con habilitación completa de 6DOF. Dispositivos como Oculus Quest que se lanzaron en realidad con el Snapdragon 835, por lo que estamos empezando a llegar a un muy buen punto en términos de aprovechar toda la capacidad de los dispositivos XR. En el pasado, algunos de los dispositivos no brindaban realmente esa experiencia impecable porque algunas personas no obtenían la mejor experiencia. Creo que a XR ahora le está yendo muy bien. Lo que también estamos viendo en el futuro, ya que se combina con 5G, es que ahora le permitirá tomar tu dispositivo es mucho más móvil, lo que significa que puedes imaginar que estás caminando sobre un calle. Y luego tener un enlace como 5G significa que, como el Demostración que mostró Gary de Google Lens. Ahora imagina que si estuvieras usando algún tipo de Google Glasses o algo así y pudieras traer información sobre lo que estás mirando a través de tus ojos, ahora tienes un caso de uso que realmente podría ser muy convincente. Creo que ahí es donde está la inversión a largo plazo de la que estás hablando, esa es la dirección en la que va.

Pero en este momento, sentimos que estamos en muy buen estado en términos de XR y todas las diferentes compañías que han lanzado XR. Oculus Go también se basa en Snapdragon 820, por lo que creo que estamos empezando a llegar a un muy buen punto en el que la gente lo utiliza y hace muchas cosas con él. Y la siguiente etapa, como mencioné, es que comencemos a incorporar la conectividad 5G, lo cual haremos y luego más allá. eso, por supuesto, AR y algunas cosas que incluso requerirán mucho más en términos de rendimiento, pero limitadas en fuerza. Y eso va a ser un gran desafío, y creo que con lo que hablamos hoy, Qualcomm es probablemente el mejor en términos de realizar cualquiera de estos casos de uso en términos de potencia. Si observa los gráficos, si compara a cualquiera de los competidores, verá que nuestro rendimiento por unidad de potencia es el mejor de su clase. Y como consecuencia de eso, las térmicas, el rendimiento sostenido es lo que importa en XR, y en ese sentido estamos realmente por delante; esa es la razón por la que la gente nos usa para XR".

Oculus Go funciona con la plataforma móvil Qualcomm Snapdragon 821.

Mario Serrafero: "Desde el año pasado, hemos visto que el Hexagon 685 DSP finalmente alcanzó el rango medio premium con el 710 y el rango medio adecuado con el 670 y 675. Así que ahora estamos consiguiendo que las extensiones vectoriales hexagonales se abran camino hacia abajo, mientras que otros competidores no lo están haciendo con sus unidades de procesamiento neuronal. ¿Cómo cree que ampliar el alcance de estas experiencias? Quería preguntarle si, en el pasado, vio que las discrepancias de rendimiento en la IA marcaban alguna diferencia. Porque todavía estamos en las primeras etapas de la adopción de la IA".

Ziad Asghar: "Miro la hoja de ruta general. Si está buscando el mejor rendimiento impecable de su clase, estará en el nivel premium. Lo que estamos haciendo es tomar selectivamente algunas de las capacidades de Hexagon y reducirlas. El primer motor de IA, o el primer Hexagon, se puso en marcha con el Snapdragon 820. Así que lo hemos reducido al Snapdragon 660 y al 670, y el 710 también lo tiene. Entonces, nuestro plan es ver cómo irrumpe en las experiencias prospectivas.

Como motor de IA, tenemos componentes básicos antiguos: CPU, GPU, tensor hexagonal, vector hexagonal y escalar. Lo que hacemos es llevar selectivamente partes de eso a la hoja de ruta a medida que vemos que esas capacidades están disminuyendo y pasando a auriculares de nivel inferior. De hecho, lo verás a medida que avancemos en el año. verás que haremos más de eso. Lanzamos Snapdragon 675 en la Cumbre 4G/5G. Hablamos sobre eso con el 675, y lo que verán es que, a medida que estos casos de uso se vuelven más prevalente, como mostramos con ArcSoft y todos esos otros chicos hoy, en realidad traeremos estas capacidades más bajo. En el nivel inferior podrá ejecutar ese caso de uso, pero para poder obtener el perfil de energía correcto como yo Como hemos hablado antes, si quieres tener ese rendimiento sostenido, quieres que ese bloque en particular llegue más bajo. De nuevo, el mejor rendimiento de su clase estará en la parte superior, pero a medida que bajes habrá una gran degradación o gradación de..."

Mario Serrafero: "Descenso de gradiente, se podría decir". (hablado en broma)

Ziad Asghar: "Si, exacto. Así es como lo hacemos con otras tecnologías que también están en la hoja de ruta y la IA no será muy diferente en ese sentido. Probablemente sea una diferencia, tal vez de dónde vienes, ya que probablemente esté bajando más rápido. a través de otras tecnologías que hemos incluido en la hoja de ruta, por lo que esta observación estoy de acuerdo con."


Si está interesado en aprender más sobre la IA en las plataformas móviles de Qualcomm, le recomendamos leer nuestra entrevista del año pasado con Gary Brotman. Puedes empezar con parte 1 de nuestra entrevista o vaya a parte 2.

Todos los gráficos mostrados en esta entrevista provienen de la presentación de Gary Brotman durante la Cumbre Tecnológica Snapdragon. Puedes ver las diapositivas. aquí.