Gary Brotman et Ziad Asghar de Qualcomm se sont entretenus avec XDA pour une interview sur l'état de l'IA et les nouveautés du DSP Hexagon 690 du Snapdragon 855.
Lorsque Qualcomm a dévoilé son nouveau Plateforme mobile Snapdragon 855, ils ont vanté des améliorations substantielles dans tous les aspects de l'informatique mobile. Pour l'utilisateur moyen, il est facile de comprendre le avantages pour l'utilisateur final derrière les améliorations du CPU et du GPU que Qualcomm a fabriqué dans le Snapdragon 855. De meilleures performances du processeur se traduisent par un chargement plus rapide des applications et de meilleures performances du GPU se traduisent par de meilleurs fréquences d'images lors des jeux. Ce qui est moins intuitif à comprendre pour les utilisateurs, c'est l'IA (intelligence artificielle), et plus particulièrement, les techniques d'apprentissage automatique que les applications et les services adoptent de plus en plus, telles que les neurones artificiels réseaux. Qualcomm a réalisé d'énormes gains en termes de performances de charge de travail d'IA avec le Snapdragon 855 grâce aux améliorations informatiques à tous les niveaux, et notamment grâce au DSP Hexagon 690 remanié. Nous avons rencontré Gary Brotman, responsable de la stratégie d'IA et d'apprentissage automatique et de la planification des produits chez Qualcomm, et Ziad Asghar, vice-président de Snapdragon Roadmap Planning and AI, XR, Competitive Strategy chez Qualcomm, pour en savoir plus sur les améliorations apportées par Qualcomm aux charges de travail d'IA.
Mario Serrafero: "Donc, le nouveau DSP. L'année dernière, je vous ai posé des questions sur la stratégie d'attaque concernant la façon dont Qualcomm a poussé, promu, commercialisé et communiqué le DSP et le HVX, en particulier. À l’époque, en tant que bloc d’IA, il était encore relativement nouveau pour la plupart des lecteurs et consommateurs. Nous nous demandons donc comment vous avez vu cela évoluer depuis avec la poursuite de la promotion du 845. »
Gary Brotman: "Tout d'abord, lorsque nous avons commencé à faire cela avec le 820, c'était encore très centré sur le CPU et le GPU, et l'exploitation du DSP et les capacités de traitement vectoriel pour cela sont vraiment le résultat de la direction que Google essaie de prendre avec TensorFlow et 8 bits mathématiques. C’est donc là que nous nous sommes vraiment dégourdis les jambes en matière de DSP, ou disons, de processeurs vectoriels. Compte tenu de la maturité du processeur vectoriel dont nous disposons chez Hexagon et de la façon dont nous avons pu faire avancer cette feuille de route si rapidement au cours des deux prochaines générations, et les cas d'utilisation que nous avons vus, qui à l'époque, les réseaux de classification de base étaient assez simples avec peu de soupeser. Ils peuvent fonctionner correctement avec les mathématiques 8 bits. Un accélérateur dédié, même l’année dernière, présentait un risque en allouant essentiellement de l’espace à quelque chose qui ne serait peut-être pas utilisé. La confluence des cas d'utilisation, et cela va de votre caméra unique standard, à la super résolution ou à la segmentation en temps réel. Ces choses se produisent dans certains cas, simultanément, à la demande d'avoir au moins un certain niveau d'accélération dédiée que vous pouvez bloquer tout en lisant les cycles sur le processeur vectoriel ou même sur le GPU. C'était le bon moment.
C'est certainement quelque chose que nous avons dû planifier bien plus tôt que lorsque nous en avons parlé la dernière fois, mais je pense que tout le monde dans cette entreprise parie qu'elle sait exactement, ou presque exactement, quelles seront ces charges de travail. Quel type de précision devrait être nécessaire et si vous avez budgétisé ou non suffisamment de calcul pour satisfaire cette confluence de cas d'utilisation à venir. Nous sommes assez délibérés en ce sens (Qualcomm a toujours été centré sur les cas d'utilisation) et nous ne voulions pas exécuter le risque d'avoir une accélération dédiée qui ne serait pas utilisée car pourrait être obsolète dans le dernier faire du vélo. Nous en voyons suffisamment en termes de convolution générale uniquement pour qu'un accélérateur dédié puisse faire un travail fantastique. Encore une fois, libérer les cycles ailleurs. En termes de stratégie que nous avons avec ce nouvel accélérateur: il est dédié, c'est une nouvelle architecture. Ce n'est pas un dérivé de l'Hexagone. Mais si vous pensez à un réseau aujourd'hui, il y a certaines fonctions de non-linéarité qui ne fonctionnent pas bien avec certaines accélérations dédiées -"
Mario Serrafero: "Ouais, sigmoïde, ReLU -"
Gary Brotman: "Exactement, Softmax. Et vous devez les placer ailleurs ou vers le processeur. Mais dans notre cas, de la façon dont nous avons conçu cela sous le capot, le DSP est en fait le contrôle. Il détermine où le réseau s'exécute et où s'exécutent les couches et peut décider si certaines choses doivent s'exécuter sur le DSP comme solution de secours plutôt que sur le processeur tensoriel. Ce jumelage avait donc beaucoup de sens pour nous. Mais cela n'enlève rien à nos convictions et à notre stratégie selon lesquelles chaque cœur principal de notre SoC possède un rôle, nous optimisons donc à tous les niveaux, mais il y a encore beaucoup de variabilité et cela va continuer."
Mario Serrafero: "Un autre sujet dont nous souhaitons parler concerne les cas d'utilisation. Comme vous l'avez dit, Qualcomm est très centré sur les cas d'utilisation, nous avons vu l'IA arriver sur mobile dans trois domaines principaux: la reconnaissance vocale, prédiction de séquence comme avec les chaînes et la saisie, et évidemment la vision par ordinateur comme les filtres IA, [et les objets reconnaissance]. La vision par ordinateur a explosé, maintenant on la voit partout. J'ai vu avec la reconnaissance vocale, chacun a son propre assistant IA, chacun a son propre assistant. Désormais, tout cela peut être fait en périphérie avec une faible latence et une sécurité parfaite. Mais quelle est la prochaine étape pour les cas d’utilisation de l’apprentissage automatique, et tous ces cas d’utilisation vont-ils être développés par les grandes entreprises du monde – tous les Snapchats du monde, les Facebook? Comment voyez-vous cela rouler? »
Gary Brotman: "Je ne pense pas pouvoir signaler un cas d'utilisation qui tue. Mais les capacités permettent une plus grande complexité informatique et dans le cas de la vision, la résolution d’entrée peut être plus élevée. Vous ne travaillez pas sur des images basse résolution pour faire du bokeh. Il y a eu une discussion plus tôt dans l'autre interview que nous avons eue autour du streaming 4K à titre d'exemple. Je ne vais pas prédire que cela sera possible, mais les développeurs avec lesquels nous travaillons, qu'il s'agisse de grandes entreprises comme Google ou de notre les partenaires de développement de logiciels qui construisent les algorithmes qui pilotent un grand nombre de ces fonctionnalités mobiles, ils veulent simplement pousser davantage. Ils veulent aller plus loin. S'il y a quelque chose que je verrais en termes d'étapes suivantes, cela concernerait probablement moins ce qui se passe au-dessus de la ligne ou au niveau de l'application, et plus sur ce qui se passe dans le système, comme l'amélioration du fonctionnement du produit, la gestion de l'énergie et même dans le pipeline des caméras, pas seulement au-dessus de il. Vous avez mentionné l'audio et le nombre de mots-clés que vous allez prendre en charge ou si vous pouvez effectuer une suppression du bruit sur l'appareil. Le problème des mots-clés est intéressant car il n’est pas facile de constituer la bibliothèque: vous êtes limité en mémoire. Il va donc toujours y avoir un équilibre entre ce qui est local et ce qui va se passer dans le cloud. »
Ziad Asghar: "Je peux ajouter un peu. Donc au moins les deux domaines dans lesquels cela se développe beaucoup sont aujourd’hui l’audio et l’imagerie. Nous pouvons le voir avoir de nombreux cas d’utilisation. Jack en a parlé du point de vue de la caméra, nous avons le moteur d'IA qui vous permet d'en tirer une grande partie pour les cas d'utilisation de l'imagerie. Certains de ceux qui ont été présentés aujourd'hui. Et puis si vous regardez l’audio, nous n’en avons pas beaucoup parlé, mais nous avons également ajouté des fonctionnalités audio au bloc audio. Nous sommes en mesure de réaliser une meilleure activation vocale dans des environnements plus bruyants. Nous sommes capables de faire une meilleure suppression du bruit [en imagerie]. Toutes ces capacités existent déjà. Il y a les partenaires que Gary a montrés aujourd'hui pour le FAI, et il y en a beaucoup plus qui arrivent. Je pense donc que ce sont les deux dimensions sur lesquelles nous nous concentrons le plus aujourd’hui. »
Gary Brotman: "Et puis la prochaine étape (je ne vais pas prédire quand cela se produira) est qu'il y ait suffisamment de calcul maintenant où l'apprentissage sur l'appareil et l'expérimentation autour de l'apprentissage réel sur l'appareil auront probablement lieu au cours de la prochaine édition. faire du vélo."
Mario Serrafero: "C'est probablement un sujet plus amusant à discuter, et c'est le fait que Qualcomm s'en tient au surnom d'Hexagon DSP et à HVX tandis que d'autres sociétés optent pour un tel et un tel "neural". Comment Qualcomm voit-il cet écart et ces différentes stratégies et approches avec principalement le marketing, mais nous pourrons aborder un peu plus tard le calcul hétérogène par rapport aux bits de bloc spécifiques, comme Bien."
Gary Brotman: "Parce qu'Hexagon a déjà constitué des fonds propres dans DSP, on serait immédiatement porté à penser que nous ne faisons qu'étendre notre stratégie DSP. En fait, en ce qui concerne la marque, si vous regardez les trois processeurs, votre scalaire, votre vecteur et maintenant votre accélérateur tensoriel dédié, ils ne sont pas tous des DSP. Hexagon est vraiment une marque de niveau supérieur au simple DSP. Il existe une poignée de DSP. Je pense qu’il est probablement un peu plus difficile de répondre aux questions de marketing car chaque région est différente. La Chine est très centrée sur les NPU parce que c'est un surnom qui a été introduit l'année dernière, et qui semble avoir pris racine. Je ne dirais pas que cela a fonctionné ailleurs dans le monde. Google dispose d'un processeur tensoriel, et le tenseur semble résonner."
Améliorations du Qualcomm Snapdragon 855 en matière de performances de charge de travail IA. Source: Qualcomm.
Mario Serrafero: "Beaucoup de gens ont leurs propres noms."
Gary Brotman: "En fin de compte, tout dépend de ce que l'équipementier veut faire. Si cela compte pour leurs clients, il leur incombe alors de déterminer comment ils peuvent tirer parti de cette capacité de traitement et se différencier en termes de capacités. Notre moteur, et je pense qu'une grande partie de la capacité de traitement dont nous disposons, resterait très centré sur les vecteurs et les tenseurs en termes de mix global. Le traitement dédié lui-même, la façon dont il effectue la multiplication matricielle, c’est le même type de processeur dédié qu’utiliserait un NPU. La question marketing est intéressante, et j’oublie, quelle a été la réponse de Keith? »
Ziad Asghar: "Sa réponse a été: 'vous pouvez l'appeler comme vous voulez, pour pouvoir vendre plus de produits.'"
Gary Brotman: "C'était à peu près tout; c'était vrai, c'était une réponse très directe."
Ziad Asghar: "Je pense que Gary l'a très bien couvert. Certaines personnes utilisent ce surnom comme terme d’une manière qui indique ou implique presque qu’il ne fait que le limiter à ce bloc. Mais ce que nous constatons, c'est que toute cette approche hétérogène consistant à pouvoir utiliser le CPU, ou un GPU, ou un tenseur Hexagone vector, vous offre différents compromis dans tout un spectre de précision en termes de puissance et de performances, et c'est ce dont vous avez besoin aujourd'hui. Parce que nous ne savons pas quelle application nécessite quel degré de précision, ce qui nécessite des performances soutenues ou ce qui ne l’exige pas. Nous pensons donc qu’il s’agit d’une solution complète et globale, car c’est ainsi que vous obtenez la meilleure expérience. »
Gary Brotman: "Et cela n'a jamais changé dans aucune de nos conversations, même avec un accélérateur dédié. C’est un ajout, ce n’est pas un remplacement. »
Mario Serrafero: "Oui, je pense que c'est Keith l'année dernière qui a dit: 'là où il y a du calcul, il y aura de l'IA.' Et maintenant, il y a plus de calcul. »
Gary Brotman: "Plus de calcul dans chaque bloc, c'est exactement ça."
Mario Serrafero: "NMaintenant que nous abordons le sujet, nous avons entendu de nombreuses comparaisons avec un « mystérieux » concurrent 7 nm sur Android. Ouais, nous n'avons toujours aucune idée de qui c'est." (parlé en plaisantant)
Gary Brotman: "Aucune idée." (parlé en plaisantant)
Mario Serrafero: « Mais pourriez-vous nous donner des indications sur ces comparaisons? Comment ont-ils été mesurés? Quelles mises en garde méritent d’être prises en compte? Y a-t-il d'autres commentaires sur lesquels vous n'avez peut-être pas eu le temps de développer dans les diapositives ou dans les questions-réponses? Je sais que c'est assez difficile à mesurer [et à communiquer] en raison de la variété des modèles, donc je pense que c'est un sujet intéressant à développer pour faire comprendre pourquoi ce n'est pas si simple de faire ces comparaisons."
Gary Brotman: "C'est en fait assez simple. Je vais vous donner une réponse très simple sur une métrique spécifique; nous allons faire davantage d'analyses comparatives en janvier. Nous parlerons davantage des différents réseaux utilisés pour mesurer les chiffres sur lesquels nous nous basons, et ce serait la norme Inception v3. C'est de là que nous tirons cette performance et notre compréhension du classement de la concurrence. Mais en ce qui concerne celui qui a annoncé et qui propose des produits sur le marché, c'est là qu'interviennent le 2x et le 3x. de... eh bien, le 3x était par rapport à ce que nous avions en 845, tandis que le 2x est leur mesure de performance et leur état de performance relatif. au nôtre."
Ziad Asghar: "Vous disposez d'appareils disponibles, vous pouvez les acquérir et effectuer vous-même certains de ces tests. Mais je pense que la seule chose contre laquelle je me garderais, c’est une sorte de Far West de l’IA d’analyse comparative. Certaines personnes utilisent des termes très généralisés ou des combinaisons de réseaux qui pourraient leur être bénéfiques d'une manière particulière ou non. « Est-ce que cela s'alignera bien avec une charge de travail modale? » n’est pas quelque chose que les gens prennent en considération. Certains des indices de référence qui circulent font bien plus de cela, et nous en sommes très proches, donc nous je sais qu'il y a des gens qui font influencer ces critères d'une manière ou d'une autre en fonction des faveurs eux. C’est pourquoi il s’agit beaucoup plus de cas d’utilisation réels. Il s’agit également beaucoup plus d’obtenir les meilleures performances de leur catégorie pour ce cas d’utilisation, puis de le faire le plus rapidement possible. Je pense que ce sont tous les facteurs que nous examinons. Mais je pense que ça va s’améliorer, ça va converger. À l’heure actuelle, il existe une variété d’options différentes. Je pense que vous conserverez certains repères qui auront plus de sens. Aujourd’hui, on pourrait peut-être affirmer qu’Inception v3 est relativement meilleure à ce stade. »
Gary Brotman: "En termes de réseaux, il y en a une poignée. Il existe ResNet, VGG, les réseaux de segmentation, les réseaux de super résolution: des performances brutes avec lesquelles vous pouvez les mesurer. Le point à retenir en termes de références telles que les entreprises ou les entités qui effectuent des analyses comparatives de l'IA, et elles avoir des mélanges de précisions, de réseaux et de formules variables, ils sont si variables que les résultats changent de semaine en semaine. C’est là que nous vivons véritablement le Far West, et nous gardons nos distances. Nous ne parions nulle part, car il existe une grande variabilité en ce qui concerne les performances réelles de certains de ces réseaux. qui sont utilisés dans les cas d'utilisation, nous sommes convaincus que nous sommes toujours parmi les meilleurs en termes de performances par rapport aux concours. Je devrais dire non pas de classement mais du doublement dont nous avons parlé, de la performance brute."
Mario Serrafero: "L'un des sujets qui nous intéresse en tant que site destiné principalement aux développeurs est la démocratisation du machine learning. Évidemment, nous avons des bibliothèques open source qui sont excellentes, tout le monde propose également ces incroyables SDK, et il y a beaucoup d'éducation. Et maintenant, Android NN est disponible et Google vient de sortir Trousse ML ce qui simplifie le processus. Vous appelez simplement une API, lui fournissez votre contribution, elle utilise un modèle entraîné, vous n'avez pas à vous en soucier, vous n'avez pas besoin d'y penser, vous n'avez pas besoin de connaître de statistiques ni de calcul vectoriel. Comment voyez-vous que le paysage a évolué à cet égard en le rendant plus accessible, en simplifiant l'API, simplifier la documentation, les SDK et promouvoir l'inclusion de développeurs tiers, pas seulement de gros entreprises?"
Gary Brotman: "C'est drôle quand nous nous concentrons sur les grandes entreprises, cela aide également les petits développeurs. Nous avons commencé avec une pile plus propriétaire en matière de programmation pour Snapdragon, en particulier pour exécuter l’IA. Mais au fil du temps et au cours des deux dernières générations, nous avons ajouté davantage d'outils. Nous essayons de trouver un équilibre entre l'abstraction de haut niveau et la facilité d'utilisation, et l'accès de niveau inférieur, qui nécessite que quelqu'un être beaucoup plus avisé, surtout lorsqu'il s'agit de gérer certains de nos cœurs propriétaires comme le processeur vectoriel ou le NPU. Nous le voyons évoluer du point de vue de la démocratisation. Nous avons les éléments de base comme les bibliothèques mathématiques Hexagon et Qualcomm, mais peut-être une API de niveau légèrement supérieur qui résume au moins une partie de ce gros travail, mais donne suffisamment de flexibilité au développeur pour pouvoir utiliser ses propres opérateurs personnalisés, ou pouvoir modifier un peu les performances au niveau inférieur. niveau. Le portefeuille continuera donc à impliquer davantage d'outils, et certainement des choses comme l'API NN où Onyx est un exemple pour pouvoir dites essentiellement « voici ce que vous programmez, dans quoi vous exprimez votre réseau ». Tant que le matériel le prend en charge, vous êtes bien.
Comme je l'ai mentionné dans notre présentation, nous sommes responsables d'un paysage multi-OS. Il y a Windows, il y a Linux, il y a Android, donc il ne s'agit pas seulement d'Android. Lorsque nous examinons cela, si nous voulons construire une sorte d'API qui sera SoC, cross-SoC ou multiplateforme du point de vue du système d'exploitation, nous devons chercher et voir comment trouver des points communs dans ce que nous construisons sous le capot. La pile avec les bibliothèques et la prise en charge des opérateurs et pouvoir se connecter à l'API NN ou à Windows ML, par exemple. Mais certainement, nous sommes passés du pendule là où personne ne sait vraiment quoi faire, comme littéralement, ne sachant pas. «Je ne sais pas quel framework utiliser. Dois-je utiliser TensorFlow ou dois-je utiliser Caffe ou Torch? » Et ne sachant pas quoi faire pour optimiser au niveau inférieur. Ainsi, tout le monde est satisfait d’un appel API. Aujourd’hui, en seulement quelques années, il est facile d’aller plus loin. Les outils sont donc là, qu'il s'agisse d'outils open source courants, ou même dans un portefeuille comme celui que nous proposons ou celui de nos concurrents, ces outils deviennent plus facilement accessibles et plus faciles à utiliser.
Moteur AI de Qualcomm et cadres d'IA, systèmes d'exploitation, écosystèmes, fonctionnalités et appareils pris en charge. Source: Qualcomm.
Mario Serrafero: "En parlant de communautés de développeurs. La dernière fois, nous avons mentionné que l’une des communautés les plus matures que nous ayons est celle des joueurs, et Qualcomm y est assez bien intégré. Aujourd’hui, nous le constatons plus que jamais avec les partenariats avec les moteurs de jeux qui sont promus et commercialisés. Nous en parlions donc dans le contexte de l’IA et de la façon dont elle y émerge. »
Michaal Rahman: "Vous parliez de la façon dont vous vouliez investir davantage au cours des 12 prochains mois. C'était lors de notre dernière visite ici. »
Mario Serrafero: "En particulier dans la communauté des développeurs de jeux, nous élargissons en quelque sorte cela et ce que nous voyons aujourd'hui."
Gary Brotman: "Je ne me souviens pas du commentaire spécifique sur l'investissement dans la communauté des joueurs, mais si vous regardez une catégorie que nous avons vue conduire le besoin d’une accélération dédiée, et le jeu en fait partie, mais ce n’est pas nécessairement le principal cas d’utilisation – la VR en tant que exemple. Dans une expérience VR riche et immersive, chaque noyau est fondamentalement exploité. Vous effectuez du traitement graphique sur le GPU, du traitement visuel sur le processeur vectoriel et la nécessité de prenez un ou plusieurs réseaux et exécutez-les séparément sur un accélérateur dédié sans vous soucier de la concurrence impact. C’est l’une des raisons qui nous ont poussés à adopter une accélération dédiée. Je n’ai pas beaucoup d’informations sur la manière dont l’IA est exploitée dans les jeux aujourd’hui. Il y a beaucoup de travail avec des agents, pour développer des agents pour vous combattre ou vous apprendre. »
Mario Serrafero: "Comme l'IA traditionnelle dans les jeux."
Gary Brotman: "Exactement, c'est vrai. Mais en étant davantage basé sur un réseau neuronal. »
Mario Serrafero: "Ouais, pas le Minimax."
Gary Brotman: "Une partie de la responsabilité de Ziad consiste également à piloter la stratégie XR."
Ziad Asghar: "En ce qui concerne XR, si vous le regardez aujourd'hui, nous avons lancé de nouveaux appareils qui sont des HMD tout-en-un avec une prise en charge complète de 6DOF. Des appareils comme l'Oculus Quest qui ont été lancés avec le Snapdragon 835, nous commençons donc à arriver à un très bon point en termes d'exploitation réelle de toutes les capacités des appareils XR. Dans le passé, certains appareils n’offraient pas vraiment cette expérience impeccable, car certaines personnes n’en ont pas tiré la meilleure expérience possible. Je pense que XR se porte désormais très bien. Ce que nous envisageons également à l'avenir, en se combinant avec la 5G, c'est qu'elle vous permette désormais de prendre votre appareil est en réalité beaucoup plus mobile, ce qui signifie que vous pouvez imaginer que vous marchez réellement sur un rue. Et puis avoir un lien comme la 5G signifie que, comme le démo que Gary a montrée de Google Lens. Imaginez maintenant que si vous portiez une sorte de lunettes Google ou quelque chose comme ça et que vous puissiez réellement apporter informations sur ce que vous regardez à travers vos yeux, vous disposez maintenant d'un cas d'utilisation qui pourrait vraiment être très convaincant. Je pense que c’est de là que vient l’investissement à long terme dont vous parlez, c’est dans cette direction qu’il va.
Mais à l’heure actuelle, nous pensons que nous sommes dans une très bonne situation en termes de XR et de toutes les différentes sociétés qui se sont lancées avec XR. Oculus Go est également basé sur Snapdragon 820, donc je pense que nous commençons à arriver à un très bon point où les gens le reprennent et font beaucoup de choses avec. Et la prochaine étape, comme je l’ai mentionné, est de commencer à introduire la connectivité 5G, ce que nous ferons et au-delà. que bien sûr la RA et certaines choses qui demanderont même beaucoup plus en terme de performances, pourtant limitées sur pouvoir. Et cela va être extrêmement difficile, et je pense qu’avec ce dont nous avons parlé aujourd’hui, Qualcomm est probablement le meilleur pour réaliser n’importe lequel de ces cas d’utilisation en termes de puissance. Si vous regardez les graphiques, si vous comparez l’un des concurrents, vous verrez que nos performances par unité de puissance sont les meilleures de leur catégorie. Et en conséquence, les thermiques, les performances durables sont ce qui compte en XR, et à cet égard, nous sommes vraiment en avance – c'est la raison pour laquelle les gens nous utilisent pour XR.
L'Oculus Go est alimenté par la plateforme mobile Qualcomm Snapdragon 821.
Mario Serrafero: "Depuis l'année dernière, nous avons vu l'Hexagon 685 DSP enfin atteindre le milieu de gamme premium avec le 710 et le milieu de gamme approprié avec le 670 et 675. Alors maintenant, les extensions vectorielles hexagonales font leur chemin en aval, alors que d'autres concurrents ne le font pas vraiment avec leurs unités de traitement neuronal. Comment voyez-vous cela étendre la portée de ces expériences, et je voulais vous demander si, dans le passé, vous avez vu les écarts de performances dans l’IA faire une différence? Parce que nous en sommes encore aux premiers stades de l’adoption de l’IA. »
Ziad Asghar: "Je regarde la feuille de route globale. Si vous recherchez les meilleures performances de leur catégorie, ce sera dans le niveau premium. Ce que nous faisons, c'est prendre sélectivement certaines des capacités de l'Hexagone et les réduire à un niveau inférieur. Le premier moteur d’IA, ou premier Hexagon, a été lancé avec le Snapdragon 820. Nous l’avons donc ramené au Snapdragon 660 et au 670, et le 710 l’a également. Notre plan est donc de voir comment cela se répercute sur les expériences prospectives.
En tant que moteur d'IA, nous avons d'anciens composants de base: CPU, GPU, tenseur Hexagon, vecteur Hexagon et scalaire. Ce que nous faisons, c'est d'en introduire sélectivement certaines parties plus bas dans la feuille de route, à mesure que nous constatons que ces capacités diminuent et sont intégrées dans des casques de niveau inférieur. Vous le verrez effectivement au fur et à mesure que nous avancerons dans l’année. vous verrez, nous en ferons davantage. Nous avons lancé le Snapdragon 675 lors du sommet 4G/5G. Nous en avons parlé avec le 675, et ce que vous verrez, à mesure que ces cas d'utilisation deviennent de plus en plus fréquents. répandue, comme nous l'avons montré avec ArcSoft et tous ces autres gars aujourd'hui, nous apporterons en fait ces capacités inférieur. Au niveau inférieur, vous pourrez exécuter ce cas d'utilisation, mais pour pouvoir obtenir le bon profil de puissance, comme je l'ai fait, mentionné plus tôt, si vous voulez avoir cette performance soutenue, vous voulez que ce bloc particulier arrive inférieur. Encore une fois, les meilleures performances de leur catégorie seront obtenues au sommet, mais à mesure que vous descendez, il y aura une grande dégradation ou une gradation de… »
Mario Serrafero: "Descente de pente, pourrait-on dire." (parlé en plaisantant)
Ziad Asghar: "Oui exactement. C’est un peu ce que nous faisons avec d’autres technologies également sur la feuille de route et l’IA ne sera pas très différente en ce sens. C'est probablement une différence, peut-être d'où vous venez, car cela descend probablement plus vite grâce à d'autres technologies que nous avons présentées dans la feuille de route, donc cette observation, je suis d'accord avec."
Si vous souhaitez en savoir plus sur l'IA dans les plates-formes mobiles de Qualcomm, nous vous recommandons de lire notre entretien de l'année dernière avec Gary Brotman. Vous pouvez commencer par partie 1 de notre entretien ou rendez-vous sur partie 2.
Tous les graphiques présentés dans cette interview proviennent de la présentation de Gary Brotman lors du Snapdragon Tech Summit. Vous pouvez visualiser les diapositives ici.