Gary Brotman en Ziad Asghar van Qualcomm gingen met XDA zitten voor een interview over de staat van AI en wat er nieuw is in de Hexagon 690 DSP in de Snapdragon 855.
Toen Qualcomm hun nieuwe onthulde Leeuwebek 855 mobiel platformprezen zij substantiële verbeteringen aan in alle aspecten van mobiel computergebruik. Voor de gemiddelde gebruiker is het gemakkelijk te begrijpen voordelen voor de eindgebruiker achter de CPU- en GPU-verbeteringen die Qualcomm maakte in de Snapdragon 855. Betere CPU-prestaties vertalen zich in het sneller laden van apps en betere GPU-prestaties vertalen zich in betere framerates tijdens het gamen. Wat minder intuïtief is voor gebruikers om te begrijpen is AI (kunstmatige intelligentie), en specifiek: Machine learning-technieken die apps en services steeds vaker toepassen, zoals kunstmatige neurale technieken netwerken. Qualcomm heeft met de Snapdragon 855 enorme winsten geboekt op het gebied van de AI-werkbelasting dankzij verbeteringen in de rekenkracht over de hele linie, en vooral dankzij de vernieuwde Hexagon 690 DSP. We spraken met Gary Brotman, hoofd van AI en Machine Learning Strategy and Product Planning bij Qualcomm, en Ziad Asghar, vice-president van Snapdragon Roadmap Planning en AI, XR, Competitive Strategy bij Qualcomm, voor meer informatie over de verbeteringen die Qualcomm heeft aangebracht in AI-workloads.
Mario Serrafero: "Dus de nieuwe DSP. Vorig jaar vroeg ik u naar de aanvalsstrategie met betrekking tot de manier waarop Qualcomm in het bijzonder de DSP en HVX pushte, promootte, op de markt bracht en communiceerde. Destijds was het als AI-blok nog relatief nieuw voor de meeste lezers en consumenten. We vragen ons dus af hoe je dit sindsdien hebt zien evolueren met de verdere promotie van de 845."
Gary Brotman: "Eerst en vooral, toen we dit begonnen te doen met de 820, was het nog steeds erg CPU- en GPU-gericht, en maakten we gebruik van de DSP en de vectorverwerkingsmogelijkheden daarvoor zijn echt tot stand gekomen als resultaat van waar Google naartoe probeert te gaan met TensorFlow en 8-bit wiskunde. Dus dat is waar we echt onze benen hebben gestrekt op het gebied van DSP, of laten we zeggen de vectorprocessors. Gezien de volwassenheid van de vectorprocessor die we in Hexagon hebben en de manier waarop we die routekaart in de komende twee jaar zo snel konden ontwikkelen generaties, en de gebruiksscenario's die we zagen, de basisclassificatienetwerken die destijds vrij eenvoudig waren en niet veel gewicht. Ze kunnen prima werken met 8-bits wiskunde. Een speciale accelerator vormde, zelfs vorig jaar, een risico voor het feitelijk toewijzen van ruimte aan iets dat misschien niet gewend raakt. De samenloop van gebruiksscenario's, en het gaat van alles, van uw standaard enkele camera, superresolutie of segmentatie in realtime. Deze dingen gebeuren in sommige gevallen tegelijkertijd met de vraag naar op zijn minst een bepaald niveau van specifieke versnelling die je kunt afschermen en toch cycli kunt lezen op de vectorprocessor of zelfs de GPU. Het was het juiste moment.
Het is zeker iets waar we al veel eerder plannen voor hadden dan toen we de vorige keer spraken, maar ik denk dat iedereen aanwezig is dit bedrijf gokt erop dat ze precies weten, of bijna precies, wat die werklast zal zijn. Welk soort precisie zou nodig moeten zijn, en of u wel of niet voldoende rekenkracht heeft gebudgetteerd om te voldoen aan de samenloop van gebruiksscenario's die eraan komen. We zijn daar behoorlijk bewust in geweest – Qualcomm heeft altijd gebruiksscenario’s centraal gesteld – en we wilden niet de leiding nemen risico op een speciale versnelling die niet zou worden gebruikt omdat deze op termijn verouderd zou kunnen zijn fiets. Alleen al in termen van algemene convolutie zien we genoeg waar een toegewijde versneller fantastisch werk van kan doen. Nogmaals, het vrijmaken van de cycli elders. In termen van de strategie die we hebben met deze nieuwe accelerator: het is toegewijd, het is een nieuwe architectuur. Het is geen Hexagon-derivaat. Maar als je vandaag de dag aan een net denkt, zijn er bepaalde niet-lineariteitsfuncties die niet goed werken bij sommige specifieke versnellingen..."
Mario Serrafero: "Ja, sigmoïde, ReLU -"
Gary Brotman: "Precies, Softmax. En je moet ze ergens anders naartoe trappen, of naar de CPU. Maar in ons geval, zoals we dit onder de motorkap hebben ontworpen, is de DSP feitelijk de besturing. Het bepaalt waar het net loopt en waar de lagen lopen en kan beslissen of er bepaalde dingen zijn die op de DSP moeten draaien als fallback versus op de tensorprocessor. Dus die koppeling was voor ons eigenlijk heel logisch. Maar dat doet niets af aan onze overtuigingen en onze strategie dat elke primaire kern in onze SoC een kern heeft rol, dus we optimaliseren over de hele linie, maar er is nog steeds veel variabiliteit en dat zal ook gebeuren doorgaan."
Mario Serrafero: "Een ander onderwerp waar we het over willen hebben zijn use cases. Zoals je al zei, Qualcomm is zeer gebruiksgericht. We hebben AI op drie belangrijke gebieden naar mobiel zien komen: spraakherkenning, volgordevoorspelling zoals met tekenreeksen en typen, en uiteraard computervisie zoals AI-filters, [en object herkenning]. Computervisie explodeerde, nu zie je het overal. Ik heb gezien dat met spraakherkenning iedereen zijn eigen AI-assistent heeft, iedereen zijn eigen assistent. Nu kan dat allemaal aan de rand worden gedaan met een kleine latentie en perfecte beveiliging. Maar wat is de toekomst voor gebruiksscenario's van machinaal leren, en zullen al deze gebruiksscenario's worden ontwikkeld door de grote bedrijven ter wereld - alle Snapchats ter wereld, de Facebooks die er zijn? Hoe zie je dat rollen?"
Gary Brotman: "Ik denk niet dat ik een geweldige use case kan aanwijzen. Maar de mogelijkheden zorgen voor meer rekencomplexiteit en in het geval van visie kan de invoerresolutie hoger zijn. Je werkt niet aan afbeeldingen met een lage resolutie om bokeh te doen. Er was eerder een discussie in het andere interview, we hadden ongeveer 4K-streaming als voorbeeld. Ik ga niet voorspellen dat dat mogelijk is, maar de ontwikkelaars waarmee we werken, of het nu grote bedrijven zijn als Google of onze Softwareontwikkelingspartners die daadwerkelijk de algoritmen bouwen die veel van deze mobiele functies aansturen, willen dat gewoon meer duwen. Ze willen verder gaan. Als er iets is dat ik zou zien in termen van volgende stappen, zou het waarschijnlijk minder gaan over wat er boven de lijn of op app-niveau gebeurt, en meer over wat er in het systeem gebeurt, zoals het verbeteren van de manier waarop het product werkt, energiebeheer en zelfs in de camerapijplijn, niet alleen daarbovenop Het. U noemde audio en hoeveel zoekwoorden u gaat ondersteunen of dat u ruisonderdrukking op het apparaat zou kunnen toepassen. Het sleutelwoord is interessant omdat het niet eenvoudig is om de bibliotheek op te bouwen: je geheugen is beperkt. Er zal dus nog steeds een evenwicht zijn tussen wat lokaal is en wat er in de cloud gaat gebeuren."
Ziad Asghar: "Ik kan er nog iets aan toevoegen. Dus de twee domeinen waar het tegenwoordig flink groeit, zijn in ieder geval audio en beeldvorming. We kunnen zien dat het veel gebruiksscenario's heeft. Jack sprak erover vanuit een cameraperspectief, we hadden de AI-engine waar je veel van kunt gebruiken voor gebruiksscenario's voor beeldvorming. Een aantal daarvan zijn vandaag getoond. En als je dan naar audio kijkt, hebben we er niet zoveel over gesproken, maar we hebben ook enkele audiomogelijkheden aan het audioblok toegevoegd. We zijn in staat om betere stemactivering uit te voeren in luidruchtigere omgevingen. We zijn in staat om betere ruisonderdrukking te doen [in beeldvorming]. Al deze vaardigheden zijn feitelijk al aanwezig. Er zijn de partners die Gary vandaag voor de ISP heeft laten zien, en er komen er nog veel meer. Dus ik denk dat dit de twee dimensies zijn waar we vandaag de dag meer op gefocust zijn."
Gary Brotman: "En dan is de volgende stap – ik ga niet voorspellen wanneer dit gebeurt – dat er nu voldoende rekenkracht is waar Leren op het apparaat en experimenteren rond daadwerkelijk leren op het apparaat zullen waarschijnlijk in dit volgende stadium plaatsvinden fiets."
Mario Serrafero: “Dit is waarschijnlijk een onderwerp dat leuker is om te bespreken, en het is het feit dat Qualcomm vasthoudt aan de naam Hexagon DSP en HVX, terwijl andere bedrijven zo en zo voor ‘neuraal’ kiezen. Hoe ziet Qualcomm deze discrepantie en deze verschillende strategieën en benaderingen met voornamelijk de marketing, maar we kunnen wat later ingaan op de heterogene rekenkracht versus specifieke blokbits Goed."
Gary Brotman: "Omdat Hexagon al eigen vermogen heeft opgebouwd in DSP, zou je onmiddellijk geneigd zijn te denken dat we alleen maar onze DSP-strategie uitbreiden. Eigenlijk per merk: als je naar alle drie de processors kijkt, je scalaire, je vector en nu je speciale tensorversneller, zijn ze niet allemaal DSP. Hexagon is echt een merk van een hoger niveau dan alleen DSP. Er is een handvol DSP's. Ik denk dat de marketingvragen waarschijnlijk iets moeilijker te beantwoorden zijn, omdat elke regio anders is. China is erg op de NPU gericht, want dat is een naam die vorig jaar werd geïntroduceerd en die wortel lijkt te hebben geschoten. Ik zou niet zeggen dat dat elders in de wereld ook werkt. Google heeft een tensorprocessor en tensor lijkt weerklank te vinden."
Mario Serrafero: "Veel mensen hebben hun eigen verschillende namen."
Gary Brotman: "Uiteindelijk komt het neer op wat de OEM wil doen. Als dat belangrijk is voor hun klanten, dan is het aan hen om uit te zoeken hoe ze die verwerkingscapaciteit kunnen benutten en zich daarin kunnen differentiëren in termen van mogelijkheden. Onze engine, en ik denk dat een groot deel van de verwerkingscapaciteit die we hebben, zou nog steeds erg vector- en tensorcentrisch zijn in termen van de algehele mix. De speciale verwerking zelf, de manier waarop matrixvermenigvuldiging plaatsvindt, het is dezelfde soort speciale processor die een NPU zou gebruiken. De marketingvraag is interessant, en ik vergeet: wat was Keiths antwoord?
Ziad Asghar: "Zijn antwoord was: 'Je kunt het noemen hoe je wilt, om meer product te kunnen verkopen.'"
Gary Brotman: "Dat was het wel zo'n beetje; dat klopte, het was een heel bot antwoord."
Ziad Asghar: "Ik denk dat Gary het heel goed heeft verwoord. Sommige mensen gebruiken die naam als term op een manier die bijna beweert of impliceert dat het alleen maar tot dat blok beperkt wordt. Maar wat we zien is dat deze hele heterogene benadering van het kunnen gebruiken van de CPU, of een GPU, of een Hexagon-tensor vector, biedt u verschillende compromissen in een heel spectrum van precisie op het gebied van kracht en prestaties, en dat is wat u nodig heeft Vandaag. Omdat we niet weten welke toepassing welke mate van precisie vereist, wat duurzame prestaties vereist, of wat dit niet vereist. Wij geloven dus dat dit een volledige totaaloplossing is, want zo krijg je de beste ervaring."
Gary Brotman: "En dat is in geen van onze gesprekken veranderd, zelfs niet met een toegewijde accelerator. Het is een toevoeging, geen vervanging."
Mario Serrafero: "Ja, ik denk dat het Keith vorig jaar was die zei: 'waar rekenkracht is, zal AI zijn.' En nu is er meer rekenkracht."
Gary Brotman: "Meer rekenkracht in elk blok, dat klopt precies."
Mario Serrafero: "NNu we het toch over dit onderwerp hebben, hebben we veel vergelijkingen gehoord met een “mysterieuze” 7nm-concurrent op Android. Ja, we hebben nog steeds geen idee wie dat is." (gesproken voor de grap)
Gary Brotman: "Geen idee." (voor de grap gesproken)
Mario Serrafero: ‘Maar kun je ons iets vertellen over deze vergelijkingen? Hoe werden ze gemeten? Welke kanttekeningen zijn het overwegen waard? Zijn er nog andere opmerkingen waar jullie misschien geen tijd voor hadden om er dieper op in te gaan in de slides of in de Q&A? Ik weet dat het nogal moeilijk te meten [en te communiceren] is vanwege de verscheidenheid aan modellen, dus ik denk van wel een interessant onderwerp om verder op in te gaan en mensen te laten weten waarom het niet zo eenvoudig is om die te maken vergelijkingen."
Gary Brotman: “Eigenlijk is het heel simpel. Ik zal je een heel eenvoudig antwoord geven over één specifieke statistiek; In januari gaan we meer benchmarken. We zullen meer praten over de verschillende netten die worden gebruikt om de cijfers te meten waarop we het baseren, en dat zou standaard Inception v3 zijn. Dat is waar we die prestaties aan ontlenen en ons inzicht in waar de concurrentie staat. Maar in termen van degene die heeft aangekondigd en met producten op de markt is, dat is waar de 2x en de 3x komen van - nou ja, de 3x was tegen wat we hadden in 845, terwijl de 2x hun maatstaf is voor de prestaties en de staat van de prestaties relatief naar de onze."
Ziad Asghar: "Je hebt apparaten beschikbaar, je kunt ze daadwerkelijk aanschaffen en een deel van dat testen zelf doen. Maar ik denk dat het enige waar ik voor zou waken, het een soort wilde westen is van benchmarking van AI. Sommige mensen gebruiken een aantal zeer algemene termen, of combinaties van netwerken waar ze op een bepaalde manier profijt van kunnen hebben of niet. "Zal dat goed aansluiten bij een modale werklast?" is niet iets waar mensen rekening mee houden. Sommige van de benchmarks die rondzwerven, doen daar veel meer van, en we zijn er heel dichtbij, dus wij Weet dat er mensen zijn die deze benchmarks op de een of andere manier laten beïnvloeden, afhankelijk van wat de voorkeur heeft hen. Daarom gaat het veel meer om daadwerkelijke gebruiksscenario’s. Het gaat ook veel meer om de beste prestaties in zijn klasse voor dat gebruiksscenario, en dan gaat het erom dat het zo snel mogelijk gedaan wordt. Ik denk dat dit alle factoren zijn waar we naar kijken. Maar ik denk dat het beter zal worden, het zal convergeren. Op dit moment zijn er verschillende opties beschikbaar. Ik denk dat er bepaalde benchmarks zullen blijven die logischer zijn. Tegenwoordig zou je misschien kunnen zeggen dat Inception v3 op dit moment relatief beter is."
Gary Brotman: "Qua netwerken zijn er een handjevol. Er zijn ResNet, VGG, segmentatienetten, superresolutienetten: ruwe prestaties waarmee je deze zou kunnen meten. Het punt dat we moeten wegnemen in termen van benchmarks zoals bedrijven of entiteiten die AI-benchmarks uitvoeren, en zij hebben mengsels van precisies, netwerken en formules die variabel zijn, ze zijn zo variabel dat de resultaten veranderen week-tot-week. Dat is waar het echt het Wilde Westen is, en we houden ons op een armlengte afstand. We plaatsen onze weddenschappen nergens, omdat er zoveel variatie is als het gaat om de daadwerkelijke prestaties van sommige van deze netwerken die worden gebruikt in gebruiksscenario's, hebben we er vertrouwen in dat we daar nog steeds zeker bovenaan staan in termen van prestaties ten opzichte van de concurrentie. Ik zou moeten zeggen: geen ranking, maar de verdubbeling waar we het over hadden, ruwe prestaties."
Mario Serrafero: "Een van de onderwerpen waarin we als site vooral voor ontwikkelaars geïnteresseerd zijn, is de democratisering van machinaal leren. Het is duidelijk dat we open source-bibliotheken hebben die geweldig zijn, iedereen biedt deze geweldige SDK's ook aan, en er is genoeg educatie. En nu is Android NN beschikbaar en Google zojuist uitgebracht ML-kit wat het proces vereenvoudigt. Je roept gewoon een API aan, geeft je input, ze gebruiken een getraind model, je hoeft je er geen zorgen over te maken, je hoeft er niet over na te denken, je hoeft geen statistieken of vectorrekening te kennen. Hoe zie je dat het landschap in dit opzicht is geëvolueerd door het toegankelijker te maken, de API te vereenvoudigen, het vereenvoudigen van de documentatie en de SDK's en het bevorderen van de opname van externe ontwikkelaars, niet alleen grote bedrijven?"
Gary Brotman: "Het is grappig als we ons eigenlijk op grote bedrijven concentreren, maar het helpt ook de kleinere ontwikkelaars. We zijn begonnen met meer een eigen stack als het ging om programmeren voor Snapdragon, specifiek voor het uitvoeren van AI. Maar in de loop van de tijd, en in de afgelopen paar generaties, hebben we meer tools toegevoegd. We proberen een evenwicht te vinden tussen abstractie en gebruiksgemak op een hoog niveau, en toegang op een lager niveau, waarvoor iemand nodig is om veel slimmer te zijn, vooral als het gaat om het omgaan met enkele van onze eigen kernen, zoals de vectorprocessor of de NPU. We zien het evolueren vanuit een democratiseringsoogpunt. We hebben de basisbouwstenen zoals de wiskundebibliotheken van Hexagon en Qualcomm, maar misschien een API van een iets hoger niveau die op zijn minst een deel van dat zware werk abstraheert. maar geeft de ontwikkelaar voldoende flexibiliteit om zijn eigen aangepaste operators te kunnen gebruiken, of een klein beetje te kunnen aanpassen in termen van prestaties op de lagere niveaus niveau. Het portfolio zal dus meer tools blijven omvatten, en zeker zaken als NN API, waarbij Onyx een voorbeeld is van de mogelijkheid om Zeg in feite: "Dit is wat u programmeert, waarin u uw netwerk uitdrukt." Zolang de hardware dit ondersteunt, is dat zo Goed.
Zoals ik in onze presentatie al zei, zijn wij verantwoordelijk voor een multi-OS-landschap. Er is Windows, er is Linux, er is Android, dus het gaat niet alleen om Android. Als we hiernaar kijken, als we een soort API gaan bouwen die SoC, cross-SoC of cross-platform vanuit het oogpunt van besturingssystemen moeten we kijken hoe we gemeenschappelijkheid kunnen vinden in wat we bouwen onder de kap. De stack met bibliotheken en operatorondersteuning en die bijvoorbeeld kan worden aangesloten op NN API of Windows ML. Maar we zijn zeker van de slinger naar hier gegaan, waar niemand echt weet wat hij moet doen letterlijk, Niet weten. “Ik weet niet welk raamwerk ik moet gebruiken. Gebruik ik TensorFlow, of moet ik Caffe of Torch gebruiken? En niet weten wat je moet doen om op een lager niveau te optimaliseren. Iedereen is dus blij met een API-aanroep. Nu, binnen slechts een paar jaar, is het gemakkelijk om dieper te gaan. Dus de tools zijn er, of het nu gewone open source-tools zijn, of zelfs in een portfolio zoals wij dat aanbieden of die concurrenten aanbieden, die tools worden steeds gemakkelijker toegankelijk en gemakkelijker te gebruiken."
Mario Serrafero: "Over ontwikkelaarsgemeenschappen gesproken. De laatste keer hadden we het over een van de meest volwassen gemeenschappen die we hebben: de gaminggemeenschap, en Qualcomm is daar behoorlijk goed in ingebed. Nu zien we dat meer dan ooit bij de partnerschappen met de game-engines die worden gepromoot en op de markt gebracht. Dus daar hadden we het over in de context van AI en hoe het daar opkomt."
Mishaal Rahman: ‘Je had het erover dat je de komende twaalf maanden meer wilde investeren. Dit was de laatste keer dat we hier waren."
Mario Serrafero: "In het bijzonder in de gemeenschap van game-ontwikkelaars, een soort uitbreiding daarvan en wat we vandaag zien."
Gary Brotman: "Ik kan me de specifieke opmerking over investeren in de gaminggemeenschap niet herinneren, maar als je naar een categorie kijkt die we zagen rijden de behoefte aan specifieke versnelling, en gamen is daar een onderdeel van, maar het is niet noodzakelijkerwijs het primaire gebruiksscenario: VR als een voorbeeld. In een rijke, meeslepende VR-ervaring wordt in principe elke kern benut. Je doet grafische verwerking op de GPU, visuele verwerking op de vectorprocessor en de noodzaak daarvoor neem een of meerdere netten en voer ze afzonderlijk uit op een speciale versneller, zonder zorgen over gelijktijdigheid invloed. Dat is een van de redenen die ons op het pad van toegewijde acceleratie hebben gebracht. Ik heb niet veel informatie over hoe AI tegenwoordig in games wordt gebruikt. Er wordt veel met agenten gewerkt: het ontwikkelen van agenten om tegen te vechten of om je iets te leren."
Mario Serrafero: "Net als de traditionele AI in games."
Gary Brotman: "Precies goed. Maar omdat het meer gebaseerd is op een neuraal netwerk."
Mario Serrafero: "Ja, niet de Minimax."
Gary Brotman: "Een deel van de verantwoordelijkheid van Ziad is ook het aandrijven van de XR-strategie."
Ziad Asghar: "Wat betreft XR, als je er vandaag naar kijkt, hebben we nieuwe apparaten gelanceerd die alles-in-één HMD's zijn met volledige 6DOF-ondersteuning. Apparaten zoals de Oculus Quest die feitelijk met de Snapdragon 835 zijn gelanceerd, dus we beginnen een heel goed punt te bereiken in termen van het daadwerkelijk benutten van de volledige mogelijkheden van XR-apparaten. In het verleden gaven sommige apparaten niet echt die onberispelijke ervaring omdat sommige mensen er niet de beste ervaring uit haalden. Ik denk dat XR het nu geweldig doet. Waar we in de toekomst ook naar kijken als het gecombineerd wordt met 5G, is dat je er nu mee aan de slag kunt uw apparaat dat eigenlijk veel mobieler is, wat betekent dat u zich kunt voorstellen dat u daadwerkelijk op een straat. En dan betekent het hebben van een link zoals 5G dat zoals de demo die Gary liet zien van Google Lens. Stel je nu eens voor dat je een soort Google-bril of iets dergelijks zou dragen en dat je daadwerkelijk iets zou kunnen binnenbrengen informatie over alles waar u door uw ogen naar kijkt, nu heeft u een gebruiksscenario dat echt heel goed zou kunnen zijn meeslepend. Ik denk dat dat de langetermijninvestering is waar je het over hebt, dat is een beetje de richting die het opgaat.
Maar op dit moment hebben we het gevoel dat we ons in een zeer goede staat bevinden als het gaat om XR en alle verschillende bedrijven die met XR zijn gestart. Oculus Go is ook gebaseerd op Snapdragon 820, dus ik denk dat we een heel goed punt beginnen te bereiken waarop mensen het oppakken en er veel dingen mee doen. En de volgende fase, zoals ik al zei, is dat we beginnen met het introduceren van 5G-connectiviteit, wat we zullen doen en daarna dat natuurlijk AR en sommige dingen die zelfs veel meer vereisen qua prestaties, maar toch beperkt stroom. En dat zal een enorme uitdaging worden, en ik denk dat Qualcomm, op basis van waar we het vandaag over hadden, waarschijnlijk de beste is als het gaat om het uitvoeren van al deze gebruiksscenario's op het gebied van kracht. Als u naar de grafische weergave kijkt en een van de concurrenten vergelijkt, ziet u dat onze prestaties per eenheid vermogen de beste in hun klasse zijn. En als gevolg daarvan zijn de thermiek en de duurzame prestaties waar het om draait bij XR, en wat dat betreft lopen we echt voorop – dat is de reden waarom mensen ons voor XR gebruiken.
Mario Serrafero: "Sinds vorig jaar hebben we gezien dat de Hexagon 685 DSP eindelijk het premium middensegment bereikte met de 710 en het juiste middenbereik met de 670 En 675. Dus nu krijgen we de Hexagon Vector Extensions hun weg stroomafwaarts, terwijl andere concurrenten dat niet helemaal doen met hun neurale verwerkingseenheden. Hoe ziet u dat het bereik van deze ervaringen wordt vergroot, en ik wilde vragen of u in het verleden de prestatieverschillen in AI überhaupt een verschil zag maken? Omdat we ons nog steeds in de vroege adoptie van AI bevinden."
Ziad Asghar: "Ik kijk naar de algemene routekaart. Als je op zoek bent naar de beste prestaties in zijn klasse, dan zit je in het premiumsegment. Wat we doen is dat we selectief een aantal van de mogelijkheden van Hexagon naar beneden halen. De eerste AI-motor, of de eerste Hexagon, werd gestart met de Snapdragon 820. Dus we hebben het teruggebracht naar de Snapdragon 660 en naar de 670, en de 710 heeft het ook. Ons plan is dus om te zien hoe dit in de toekomstige ervaringen doordringt.
Als AI-engine hebben we oude basiscomponenten: CPU, GPU's, Hexagon tensor, Hexagon vector en scalair. Wat we doen is dat we delen daarvan selectief verder naar beneden in de routekaart brengen, omdat we zien dat deze vaardigheden naar beneden komen en naar headsets van een lager niveau gaan. Je zult het zien naarmate we verder gaan in het jaar. Je zult zien dat we dat meer zullen doen. We hebben Snapdragon 675 gelanceerd op de 4G/5G Summit. We hadden het erover dat dit met de 675 zou gebeuren, en wat je zult zien is dat er steeds meer gebruiksscenario's komen Zoals we vandaag met ArcSoft en al die andere jongens hebben laten zien, zullen we deze mogelijkheden ook daadwerkelijk introduceren lager. Op het lagere niveau kun je die use case uitvoeren, maar om het juiste energieprofiel te krijgen, zoals ik waar we eerder over spraken: als je die aanhoudende prestatie wilt hebben, wil je dat dat specifieke blok komt lager. Dus nogmaals, de beste prestaties in zijn klasse zullen bovenaan staan, maar naarmate je lager gaat, zal er een grote degradatie of gradatie zijn van..."
Mario Serrafero: "Gradient-afdaling, zou je kunnen zeggen." (voor de grap gesproken)
Ziad Asghar: "Ja precies. Dat is ongeveer hoe we het doen met andere technologieën die ook op de routekaart staan, en AI zal in die zin niet heel anders zijn. Het is waarschijnlijk één verschil, misschien waar je vandaan komt, omdat het waarschijnlijk sneller naar beneden komt via andere technologieën die we in de routekaart hebben opgenomen, dus die observatie ben ik het ermee eens met."
Als je meer wilt weten over AI op de mobiele platforms van Qualcomm, raden we je aan ons interview van vorig jaar met Gary Brotman te lezen. Je kunt beginnen met deel 1 van ons interview of ga naar deel 2.
Alle afbeeldingen in dit interview zijn afkomstig van de presentatie van Gary Brotman tijdens de Snapdragon Tech Summit. U kunt de dia's bekijken hier.