Interviu: Qualcomm despre AI și Hexagon 690 DSP al lui Snapdragon 855

click fraud protection

Gary Brotman și Ziad Asghar de la Qualcomm s-au întâlnit cu XDA pentru un interviu despre starea AI și ce este nou în Hexagon 690 DSP din Snapdragon 855.

Când Qualcomm și-a dezvăluit noul Platforma mobilă Snapdragon 855, au prezentat îmbunătățiri substanțiale în toate aspectele computerului mobil. Pentru utilizatorul mediu, este ușor de înțeles beneficiile utilizatorului final din spatele îmbunătățirilor CPU și GPU pe care l-a făcut Qualcomm în Snapdragon 855. Performanța mai bună a procesorului se traduce prin încărcarea mai rapidă a aplicațiilor, iar performanța GPU mai bună se traduce prin rate de cadre mai bune atunci când joci. Ceea ce este mai puțin intuitiv pentru utilizatori să înțeleagă este AI (inteligență artificială) și, în special, tehnici de învățare automată pe care aplicația și serviciile le adoptă din ce în ce mai mult, cum ar fi neuronale artificiale retelelor. Qualcomm a obținut câștiguri uriașe în performanța încărcăturii de lucru AI cu Snapdragon 855 datorită îmbunătățirilor de calcul la nivel general și mai ales datorită Hexagon 690 DSP reînnoit. Ne-am întâlnit cu Gary Brotman, șeful departamentului AI și Machine Learning Strategy și Product Planning la Qualcomm, și Ziad Asghar, vicepreședinte al Snapdragon Roadmap Planning și AI, XR, Competitive Strategy la Qualcomm, pentru a afla mai multe despre îmbunătățirile aduse de Qualcomm în sarcinile de lucru AI.


Mario Serrafero: "Deci, noul DSP. Anul trecut, v-am întrebat despre strategia de atac cu privire la modul în care Qualcomm a împins, a promovat, a comercializat și a comunicat DSP și HVX, în special. La acea vreme, ca bloc AI, era încă relativ nou pentru majoritatea cititorilor și consumatorilor. Așa că ne întrebăm cum ați văzut evoluția asta de atunci odată cu promovarea în continuare a modelului 845.”

Gary Brotman: „În primul rând, când am început să facem asta cu 820, era încă foarte centrat pe CPU și GPU și folosea DSP și capabilitățile de procesare vectorială pentru aceasta au apărut într-adevăr ca urmare a situației în care Google încearcă să se îndrepte cu TensorFlow și 8 biți matematica. Așa că acolo ne-am întins cu adevărat picioarele în DSP, sau să spunem procesoarele vectoriale. Având în vedere maturitatea procesorului vectorial pe care îl avem în Hexagon și modul în care am putut avansa acea foaie de parcurs atât de repede în următoarele două generații și cazurile de utilizare pe care le-am văzut, care la acea vreme, rețelele de clasificare de bază erau destul de simple, fără prea multe ridicare. Pot funcționa bine cu matematica pe 8 biți. Un accelerator dedicat, chiar și anul trecut, a reprezentat un risc pentru alocarea practic de suprafață pentru ceva ce poate nu se obișnuiește. Confluența pentru cazuri de utilizare și orice, de la camera dvs. unică standard, super rezoluție sau segmentare în timp real. Aceste lucruri se întâmplă în unele cazuri, concomitent, cererea de a avea cel puțin un anumit nivel de accelerație dedicată pe care o puteți opri și încă citi ciclurile pe procesorul vectorial sau chiar pe GPU. Era momentul potrivit.

Este cu siguranță ceva pentru care a trebuit să planificăm mult mai devreme decât când am vorbit data trecută, dar cred că toată lumea din această companie pariază că știu exact sau aproape exact care vor fi acele sarcini de lucru. Ce tip de precizie ar trebui să fie necesară și dacă ați făcut sau nu un buget suficient de calculat pentru a satisface acea confluență de cazuri de utilizare care urmează. Suntem destul de deliberați în acest sens - Qualcomm a fost întotdeauna centrat pe cazuri de utilizare - și nu am vrut să rulăm riscul de a avea o accelerație dedicată care nu ar fi folosită deoarece ar putea fi depășită în ultimul timp ciclu. Vedem suficient în ceea ce privește convoluția generală, încât un accelerator dedicat poate face o treabă fantastică. Din nou, eliberând ciclurile în altă parte. În ceea ce privește strategia pe care o avem cu acest nou accelerator: este dedicat, este o nouă arhitectură. Nu este un derivat Hexagon. Dar dacă te gândești la o rețea astăzi, există anumite funcții de neliniaritate care nu funcționează bine cu o parte din accelerația dedicată -"

Mario Serrafero: "Da, sigmoid, ReLU -"

Gary Brotman: „Exact, Softmax. Și trebuie să le aruncați în altă parte sau la CPU. Dar în cazul nostru, modul în care am conceput asta sub capotă, DSP-ul este de fapt controlul. Determină unde rulează rețeaua și unde rulează straturile și poate decide dacă există anumite lucruri care ar trebui să ruleze pe DSP ca alternativă față de rularea pe procesorul tensor. Deci acea pereche a avut de fapt mult sens pentru noi. Dar asta nu slăbește convingerile și strategia noastră că fiecare nucleu principal din SoC are un rol, așa că optimizăm la nivel general, dar există încă multă variabilitate și asta se va întâmpla continua."

Mario Serrafero: „Un alt subiect despre care vrem să vorbim sunt cazurile de utilizare. După cum ați spus, Qualcomm este foarte centrat pe cazuri de utilizare, am văzut că AI a ajuns pe mobil în trei domenii principale: recunoașterea vorbirii, predicția secvenței ca și cu șiruri de caractere și tastare și, evident, viziunea computerizată, cum ar fi filtrele AI, [și obiectul recunoaştere]. Viziunea computerizată a explodat, acum o vezi peste tot. Am văzut cu recunoașterea vorbirii, fiecare are propriul asistent AI, fiecare are propriul asistent. Acum, tot ceea ce se poate face la margine cu latență mică și securitate perfectă. Dar ce urmează pentru cazurile de utilizare ale învățării automate și toate acele cazuri de utilizare vor fi dezvoltate de marile companii din lume - toate Snapchat-urile din lume, Facebook-urile de acolo? Cum vezi asta rostogolindu-se?"

Gary Brotman: „Nu cred că pot indica un caz de utilizare ucigaș. Dar capacitățile permit o complexitate mai mare de calcul și, în cazul vederii, rezoluția de intrare poate fi mai mare. Nu lucrați la imagini cu rezoluție mică pentru a face bokeh. A existat o discuție mai devreme în celălalt interviu pe care l-am avut în jur de streaming 4K ca exemplu. Nu am de gând să prezic că acest lucru este posibil, dar dezvoltatorii cu care lucrăm, fie că este vorba de companii mari precum Google sau partenerii de dezvoltare de software care construiesc de fapt algoritmii care conduc multe dintre aceste funcții mobile, vor doar să împinge mai mult. Vor să meargă mai departe. Dacă există ceva ce aș vedea în ceea ce privește următorii pași, probabil că ar fi mai puțin despre ceea ce se întâmplă deasupra liniei sau la nivel de aplicație și mai multe despre ceea ce se întâmplă în sistem, cum ar fi îmbunătățirea modului în care funcționează produsul, gestionarea energiei și chiar și în conducta camerei, nu doar pe deasupra aceasta. Ați menționat audio și câte cuvinte cheie veți accepta sau dacă ați putea face anularea zgomotului pe dispozitiv. Cuvântul cheie este interesant, deoarece nu este ușor să construiți biblioteca - aveți constrângeri de memorie. Deci va exista încă un echilibru între ceea ce este local și ceea ce se va întâmpla în cloud.”

Ziad Asghar: „Pot adăuga puțin. Deci, cel puțin cele două domenii în care crește foarte mult sunt audio și imagini, astăzi. Putem vedea că are o mulțime de cazuri de utilizare. Jack a vorbit despre asta din perspectiva camerei, am avut motorul AI de care poți folosi o mulțime de asta pentru cazuri de utilizare a imaginilor. Unele dintre cele care au fost prezentate astăzi. Și apoi, dacă te uiți la sunet, nu am vorbit atât de mult despre asta, dar am adăugat de fapt unele capacități audio blocului audio. Suntem capabili să facem o activare vocală mai bună în medii mai zgomotoase. Suntem capabili să facem o anulare mai bună a zgomotului [în imagini]. Toate aceste abilități se întâmplă deja. Există partenerii pe care Gary i-a arătat astăzi pentru ISP, sunt mulți dintre aceștia care vin. Deci cred că acestea sunt cele două dimensiuni asupra cărora ne concentrăm mai mult astăzi.”

Gary Brotman: „Și următorul pas — nu voi prognoza când se va întâmpla asta — este acum suficient de calcul unde Învățarea pe dispozitiv și experimentarea în jurul învățării efective pe dispozitiv se va întâmpla probabil în acest viitor ciclu."

Mario Serrafero: „Acesta este probabil un subiect care este mai distractiv de discutat și este faptul că Qualcomm rămâne cu numele Hexagon DSP și HVX, în timp ce alte companii optează pentru „neural” așa și așa. Cum vede Qualcomm această discrepanță și aceste strategii și abordări diferite cu în principal marketing, dar putem intra puțin mai târziu despre calculul eterogen versus biți bloc specifici ca bine."

Gary Brotman: „Deoarece Hexagon are deja capitaluri proprii în DSP, acesta ar gravita imediat spre a crede că doar ne extindem strategia DSP. De fapt, pe marcă, dacă te uiți la toate cele trei procesoare, scalar, vector și acum acceleratorul de tensor dedicat, nu sunt toate DSP. Hexagon este într-adevăr o marcă de nivel mai înalt decât doar DSP. Există o mână de DSP-uri. Cred că întrebările de marketing sunt probabil un pic mai dificil de răspuns, deoarece fiecare regiune este diferită. China este foarte centrată pe NPU, deoarece acesta este un nume care a fost introdus anul trecut și care pare să fie unul care a prins rădăcini. Nu aș spune că asta a funcționat în altă parte pe glob. Google are un procesor tensor, iar tensorul pare să rezoneze”.

Îmbunătățirile Qualcomm Snapdragon 855 în performanța sarcinii de lucru AI. Sursa: Qualcomm.

Mario Serrafero: „Mulți oameni au propriile lor nume diferite”.

Gary Brotman: „În cele din urmă, se reduce la ceea ce OEM vrea să facă. Dacă acest lucru contează pentru clienții lor, atunci le revine sarcina de a-și da seama cum pot folosi acea capacitate de procesare și să o diferențieze în ceea ce privește capacitățile. Motorul nostru și cred că o mare parte din capacitatea de procesare pe care o avem, ar fi în continuare foarte vector și tensor-centric în ceea ce privește amestecul general. Procesarea dedicată în sine, modul în care face multiplicarea matricei, este același tip de procesor dedicat pe care l-ar folosi un NPU. Întrebarea de marketing este una interesantă și uit, care a fost răspunsul lui Keith?”

Ziad Asghar: „Răspunsul lui a fost „puteți numi cum doriți, pentru a putea vinde mai mult produs”.

Gary Brotman: „Asta a fost cam așa; a fost corect, a fost un răspuns foarte clar.”

Ziad Asghar: „Cred că Gary a acoperit-o foarte bine. Unii dintre oameni care folosesc acest nume ca termen într-un mod care aproape afirmă sau sugerează că îl limitează doar la acel bloc. Dar ceea ce vedem este că toată această abordare eterogenă de a putea folosi procesorul, sau un GPU sau un tensor hexagonal. vector, vă oferă diferite compromisuri într-un spectru întreg de precizie în ceea ce privește puterea și performanța și de asta aveți nevoie astăzi. Pentru că nu știm ce aplicație necesită ce grad de precizie, ce necesită performanță susținută sau ce nu o necesită. Așa că credem că este o soluție completă, de ansamblu, pentru că așa obțineți cea mai bună experiență.”

Gary Brotman: „Și asta nu s-a schimbat niciodată în niciuna dintre conversațiile noastre, chiar și cu un accelerator dedicat. Este un plus, nu este un înlocuitor.”

Mario Serrafero: „Da, cred că Keith a fost anul trecut cel care a spus „unde există calcul, va fi AI”. Și acum există mai mult calcul.”

Gary Brotman: „Mai multe calcule în fiecare bloc, exact așa este.”

Mario Serrafero: „NDatorită faptului că suntem pe acest subiect, am auzit multe comparații cu un concurent „misterios” de 7 nm pe Android. Da, încă nu avem nicio idee cine este." (vorbit în glumă)

Gary Brotman: "Nici o idee." (spus în glumă)

Mario Serrafero: „Dar, ne poți da indicii despre aceste comparații? Cum au fost măsurate? Ce avertismente merită luate în considerare? Alte comentarii pe care poate nu ați avut timp să le extindeți în slide-uri sau în întrebări și răspunsuri? Știu că este cam greu de măsurat [și de comunicat] din cauza varietății de modele, așa că cred că este un subiect interesant de extins pentru a le spune oamenilor de ce nu este atât de ușor să le faci comparații”.

Gary Brotman: „Este de fapt destul de simplu. Vă voi da un răspuns foarte simplu pentru o anumită măsurătoare; vom face mai multe analize comparative în ianuarie. Vom vorbi mai multe despre diferitele rețele care sunt folosite pentru a măsura numerele pe care ne bazăm, iar aceasta ar fi standard Inception v3. De aici obținem acea performanță și înțelegerea noastră despre locul în care se află concurența. Dar în ceea ce privește cel care a anunțat și iese cu produse pe piață, aici vine 2x și 3x de la - ei bine, 3x a fost împotriva ceea ce am avut în 845, în timp ce 2x este măsura lor a performanței și a stării de performanță relativă la a noastră”.

Ziad Asghar: „Aveți dispozitive disponibile, le puteți achiziționa și face singuri unele dintre aceste teste. Dar cred că singurul lucru de care m-aș proteja, este un fel de Vest sălbatic al benchmarkingului AI. Unii oameni folosesc termeni foarte generalizați sau amestecuri de rețele care le-ar putea beneficia într-un anumit mod sau nu. „Se va alinia bine cu un volum de lucru modal?” nu este ceva de care oamenii țin cont. Unele dintre punctele de referință care au plutit în jur fac mult mai mult din asta și suntem foarte aproape, așa că știi că există oameni care fac acele repere să se balanseze într-un fel sau altul, în funcție de ce favoruri lor. De aceea, este mult mai mult despre cazurile de utilizare reale. Este, de asemenea, mult mai mult despre cea mai bună performanță din clasă pentru acel caz de utilizare, iar apoi este vorba despre realizarea cât mai rapidă. Cred că aceștia sunt toți factorii pe care îi luăm în considerare. Dar cred că va deveni mai bine, va converge. În acest moment, există o varietate de opțiuni diferite. Cred că veți avea anumite puncte de referință care să aibă mai mult sens. Astăzi, poate ați putea argumenta că Inception v3 este relativ mai bună în acest moment.”

Gary Brotman: „În ceea ce privește rețelele, există o mână. Există ResNet, VGG, rețele de segmentare, rețele de super rezoluție - performanță brută cu care le puteți măsura. Ideea de luat în considerare în ceea ce privește parametrii de referință, cum ar fi companiile sau entitățile care fac benchmarking AI și ei au amestecuri de precizii, rețele și formule care sunt variabile, sunt atât de variabile încât rezultatele se schimbă de la săptămână la săptămână. Acolo este cu adevărat Vestul Sălbatic și ne păstrăm la distanță de braț. Nu punem pariurile nicăieri, pentru că există atât de multă variabilitate când vine vorba de performanța reală a unora dintre aceste rețele care sunt utilizate în cazurile de utilizare, suntem încrezători că suntem în continuare cu siguranță acolo sus în ceea ce privește performanța față de competiție. Ar trebui să spun nu clasament, ci dublarea despre care am vorbit, performanță brută.”

Mario Serrafero: „Unul dintre subiectele care ne interesează ca site în primul rând pentru dezvoltatori este democratizarea învățării automate. Evident, avem biblioteci open source care sunt grozave, toată lumea oferă și aceste SDK-uri uimitoare și există o mulțime de educație. Și acum Android NN este disponibil și Google tocmai a lansat Kit ML ceea ce simplifică procesul. Doar apelați un API, îl alimentați cu inputul dvs., ei folosesc un model antrenat, nu trebuie să vă faceți griji pentru asta, nu trebuie să te gândești la asta, nu trebuie să cunoști nicio statistică sau vreun calcul vectorial. Cum vedeți că peisajul a evoluat în acest sens făcându-l mai accesibil, simplificând API-ul, simplificarea documentației, a SDK-urilor și promovarea includerii dezvoltatorilor terți, nu doar mari companii?"

Gary Brotman: „Este amuzant când ne concentrăm de fapt pe companiile mari, îi ajută și pe dezvoltatorii mai mici. Am început cu mai mult o stivă proprietară când a venit vorba de programare pentru Snapdragon, în special pentru rularea AI. Dar de-a lungul timpului și în ultimele două generații, am adăugat mai multe instrumente. Încercăm să găsim un echilibru între abstracția la nivel înalt și ușurința în utilizare și accesul la nivel inferior, care necesită cineva să fim mult mai pricepuți, mai ales când vine vorba de a face față unora dintre nucleele noastre proprietare, cum ar fi procesorul vectorial sau NPU. O vedem evoluând din punct de vedere al democratizării. Avem elementele de bază, cum ar fi bibliotecile de matematică Hexagon și Qualcomm, dar poate un API de nivel puțin mai înalt care abstrage cel puțin o parte din aceste sarcini grele, dar oferă suficientă flexibilitate dezvoltatorului pentru a-și putea folosi propriii operatori personalizați sau pentru a putea modifica puțin în ceea ce privește performanța la nivelul inferior. nivel. Deci portofoliul va continua să implice mai multe instrumente și, cu siguranță, lucruri precum NN API unde Onyx este un exemplu pentru a putea spune practic „iată ce programezi, în ce îți exprimi rețeaua.” Atâta timp cât hardware-ul o acceptă, ești bun.

După cum am menționat în prezentarea noastră, suntem responsabili pentru un peisaj multi-OS. Există Windows, există Linux, există Android, deci nu este vorba doar despre Android. Când ne uităm la asta, dacă vom construi un fel de API care va fi SoC, cross-SoC sau cross-platformă din punct de vedere al sistemului de operare, trebuie să căutăm și să vedem cum să găsim elemente comune în ceea ce construim sub glugă. Stiva cu biblioteci și asistență pentru operator și care poate fi conectată la NN API sau Windows ML, de exemplu. Dar cu siguranță, am trecut de la pendulul de aici, unde nimeni nu știe cu adevărat ce să facă, cum ar fi literalmente, nestiind; necunoscand. „Nu știu ce cadru să folosesc. Folosesc TensorFlow sau ar trebui să folosesc Caffe sau Torch?” Și neștiind ce să faci pentru a optimiza la nivelul inferior. Deci toată lumea este mulțumită de un apel API. Acum, în doar câțiva ani, este ușor să mergi mai adânc. Așadar, instrumentele sunt acolo, fie că sunt instrumente obișnuite cu sursă deschisă, fie chiar într-un portofoliu precum noi sau pe care îl oferă concurenții, acele instrumente devin din ce în ce mai ușor accesibile și mai ușor de utilizat.”

Motorul AI al Qualcomm și cadrele, sistemele de operare, ecosistemele, caracteristicile și dispozitivele AI acceptate. Sursa: Qualcomm.

Mario Serrafero: „Vorbind de comunitățile de dezvoltatori. Ultima dată când am menționat una dintre cele mai mature comunități pe care le avem este comunitatea de jocuri, iar Qualcomm este destul de bine încorporată în asta. Acum, vedem asta mai mult ca niciodată cu parteneriatele cu motoarele de joc care sunt promovate și comercializate. Așa că am vorbit despre asta în contextul AI și despre modul în care apare acolo.”

Mishaal Rahman: „Vorbeai despre cum ai vrut să investești mai mult în următoarele 12 luni. Asta sa întâmplat când am fost ultima dată aici.”

Mario Serrafero: „În special, în comunitatea dezvoltatorilor de jocuri, am extins acest lucru și ceea ce vedem astăzi.”

Gary Brotman: „Nu-mi amintesc comentariul specific despre investiția în comunitatea de jocuri, dar dacă te uiți la o categorie pe care am văzut-o conducând nevoia de accelerare dedicată, iar jocurile sunt o componentă a acestui lucru, dar nu este neapărat cazul de utilizare principal - VR ca un exemplu. Într-o experiență VR bogată și captivantă, fiecare nucleu este practic valorificat. Faceți procesare grafică pe GPU, procesare vizuală pe procesorul vectorial și necesitatea de a luați una sau mai multe rețele și rulați-le separat pe un accelerator dedicat, fără grija concurenței impact. Acesta este unul dintre motivele care ne-au condus pe calea unei accelerații dedicate. Nu am multe informații cu privire la modul în care AI este folosită în jocurile de astăzi. Există o mulțime de lucru cu agenții – dezvoltarea agenților care să te lupte împotriva sau să te învețe.”

Mario Serrafero: „La fel ca IA tradițională în jocuri.”

Gary Brotman: "Ai perfecta dreptate. Dar fiind mai mult bazat pe rețeaua neuronală.”

Mario Serrafero: — Da, nu Minimax.

Gary Brotman: „De asemenea, o parte din responsabilitatea lui Ziad este conducerea strategiei XR.”

Ziad Asghar: „În ceea ce privește XR, dacă vă uitați la asta astăzi, am lansat noi dispozitive care sunt HMD-uri all-in-one cu activare completă 6DOF. Dispozitive precum Oculus Quest care s-a lansat de fapt cu Snapdragon 835, așa că începem să ajungem la un punct foarte bun în ceea ce privește valorificarea deplină a capacității dispozitivelor XR. În trecut, unele dintre dispozitive nu ofereau acea experiență impecabilă, deoarece unii oameni nu au obținut cea mai bună experiență din ea. Cred că acum XR se descurcă grozav. Ceea ce ne uităm și în viitor, deoarece se combină cu 5G, este că vă permite acum să puteți lua dispozitivul dvs., care este de fapt mult mai mobil, ceea ce înseamnă că vă puteți imagina că mergeți de fapt pe un stradă. Și apoi a avea o legătură ca 5G înseamnă că, cum ar fi demonstrația pe care Gary a prezentat-o ​​despre Google Lens. Acum imaginați-vă că, dacă ați purta un fel de ochelari Google sau ceva de genul ăsta și ați putea aduce efectiv toate informațiile despre ceea ce privești prin ochii tăi, acum ai un caz de utilizare care ar putea fi într-adevăr foarte convingătoare. Cred că acolo este investiția pe termen lung despre care vorbești, cam așa este direcția în care merge.

Dar acum, simțim că suntem într-o stare foarte bună în ceea ce privește XR și toate companiile diferite care s-au lansat cu XR. Oculus Go se bazează și pe Snapdragon 820, așa că cred că începem să ajungem într-un punct foarte bun în care oamenii îl iau și fac multe lucruri cu el. Și următoarea etapă, așa cum am menționat-o, este că începem să aducem conectivitate 5G, ceea ce o vom face și mai departe că, desigur, AR și unele lucruri care vor necesita chiar mult mai mult în ceea ce privește performanța, dar limitate putere. Și asta va fi extrem de provocator și cred că, cu ceea ce am vorbit astăzi, Qualcomm este probabil cel mai bun în ceea ce privește realizarea oricăruia dintre aceste cazuri de utilizare în ceea ce privește puterea. Dacă te uiți la grafică, dacă comparați oricare dintre concurenți, veți vedea performanța noastră pe unitate de putere este cea mai bună din clasă. Și, drept consecință, termicul, performanța susținută este ceea ce contează în XR și, în acest sens, suntem cu adevărat în față – acesta este motivul pentru care oamenii ne folosesc pentru XR.”

Oculus Go este alimentat de platforma mobilă Qualcomm Snapdragon 821.

Mario Serrafero: „De anul trecut, am văzut că Hexagon 685 DSP a ajuns în sfârșit la gama medie premium cu 710 iar gama medie adecvată cu 670 și 675. Așadar, acum primim extensiile vectoriale Hexagon care își fac drum în aval, în timp ce alți concurenți nu prea fac asta cu unitățile lor de procesare neuronală. Cum vedeți că extinderea sferei acestor experiențe și am vrut să vă întreb dacă, în trecut, ați văzut că discrepanțele de performanță în AI fac vreo diferență? Pentru că încă ne aflăm la începutul adoptării AI.”

Ziad Asghar: „Mă uit la foaia de parcurs generală. Dacă sunteți în căutarea celei mai bune performanțe impecabile din clasă, aceasta va fi la nivelul premium. Ceea ce facem este că luăm selectiv unele dintre capacitățile Hexagon și le aducem mai jos. Primul motor AI, sau primul Hexagon, a fost pornit cu Snapdragon 820. Așa că l-am redus la Snapdragon 660 și la 670, iar 710 îl are și el. Deci, planul nostru este să vedem cum se sparge în experiențele viitoare.

Ca motor AI, avem componente vechi de bază: CPU, GPU-uri, tensor hexagonal, vector hexagonal și scalar. Ceea ce facem este să aducem selectiv părți din aceasta mai jos în foaia de parcurs, pe măsură ce vedem că acele abilități se reduc și intră în căștile de nivel inferior. Veți vedea de fapt, pe măsură ce mergem mai departe în cursul anului. vei vedea că vom face mai mult din asta. Am lansat Snapdragon 675 la Summit-ul 4G/5G. Am vorbit despre asta cu 675 și ceea ce veți vedea este că aceste cazuri de utilizare devin din ce în ce mai multe predominant, așa cum am arătat cu ArcSoft și toți acei băieți astăzi, vom aduce de fapt aceste capacități inferior. În nivelul inferior, veți putea rula acel caz de utilizare, dar pentru a putea obține acel profil de putere potrivit ca mine despre care am vorbit mai devreme, dacă vrei să ai acea performanță susținută, vrei ca acel bloc să vină inferior. Deci, din nou, cea mai bună performanță din clasă va fi sus, dar pe măsură ce coborâți va avea loc o degradare sau o gradare mare a...”

Mario Serrafero: „Coborâre în gradient, ai putea spune”. (vorbit in gluma)

Ziad Asghar: „Da, exact. Cam așa procedăm și cu alte tehnologii de pe foaia de parcurs, iar AI nu va fi foarte diferită în acest sens. Probabil că este o diferență, poate de unde vii, deoarece probabil coboară mai repede prin alte tehnologii pe care le-am introdus în foaia de parcurs, așa că aș fi de acord cu această observație cu."


Dacă sunteți interesat să aflați mai multe despre AI în platformele mobile ale Qualcomm, vă recomandăm să citiți interviul nostru de anul trecut cu Gary Brotman. Poti incepe cu partea 1 a interviului nostru sau mergeți la partea 2.

Toate graficele prezentate în acest interviu provin din prezentarea lui Gary Brotman în timpul Snapdragon Tech Summit. Puteți vizualiza diapozitivele Aici.