Intervista: Qualcomm sull'intelligenza artificiale e il DSP Hexagon 690 dello Snapdragon 855

Gary Brotman e Ziad Asghar di Qualcomm si sono incontrati con XDA per un'intervista sullo stato dell'intelligenza artificiale e sulle novità del DSP Hexagon 690 dello Snapdragon 855.

Quando Qualcomm ha presentato il suo nuovo Piattaforma mobile Snapdragon 855, hanno pubblicizzato miglioramenti sostanziali in tutti gli aspetti del mobile computing. Per l'utente medio, è facile capire il vantaggi per l'utente finale grazie ai miglioramenti di CPU e GPU che Qualcomm ha realizzato con lo Snapdragon 855. Migliori prestazioni della CPU si traducono in un caricamento delle app più veloce e migliori prestazioni della GPU si traducono in framerate migliori durante il gioco. Ciò che è meno intuitivo da comprendere per gli utenti è l'intelligenza artificiale (intelligenza artificiale) e, in particolare, tecniche di machine learning che app e servizi sempre più adottano come il neurale artificiale reti. Qualcomm ha ottenuto enormi miglioramenti nelle prestazioni del carico di lavoro AI con lo Snapdragon 855 grazie ai miglioramenti nell'elaborazione su tutta la linea e soprattutto grazie al rinnovato DSP Hexagon 690. Abbiamo incontrato Gary Brotman, responsabile della strategia di intelligenza artificiale e apprendimento automatico e pianificazione dei prodotti di Qualcomm, e Ziad Asghar, vicepresidente di Snapdragon Roadmap Planning and AI, XR, Competitive Strategy presso Qualcomm, per saperne di più sui miglioramenti apportati da Qualcomm ai carichi di lavoro AI.


Mario Serrafero: "Quindi, il nuovo DSP. L'anno scorso ti ho chiesto della strategia di attacco rispetto a come Qualcomm ha spinto, promosso, commercializzato e comunicato in particolare DSP e HVX. All’epoca, come blocco dell’intelligenza artificiale, era ancora relativamente nuovo per la maggior parte dei lettori e dei consumatori. Quindi ci chiediamo come avete visto evolversi questa situazione da allora con l'ulteriore promozione dell'845."

Gary Brotmann: "Innanzitutto, quando abbiamo iniziato a farlo con l'820, era ancora molto incentrato su CPU e GPU e sfruttava il DSP e le capacità di elaborazione vettoriale per questo sono nate in realtà come risultato della direzione in cui Google sta cercando di andare con TensorFlow e 8 bit matematica. Ecco dove abbiamo davvero sgranchito le gambe nel DSP, o diciamo nei processori vettoriali. Data la maturità del processore vettoriale di cui disponiamo in Hexagon e il modo in cui siamo stati in grado di portare avanti tale roadmap così rapidamente nei due prossimi generazioni e i casi d'uso che abbiamo visto, che all'epoca le reti di classificazione di base erano piuttosto semplici e non ne avevano molte peso. Possono funzionare bene con la matematica a 8 bit. Un acceleratore dedicato, anche l’anno scorso, rappresentava un rischio perché sostanzialmente si destinava spazio a qualcosa che rischiava di non essere utilizzato. La confluenza dei casi d'uso e qualsiasi cosa, dalla singola fotocamera standard alla super risoluzione o alla segmentazione in tempo reale. Queste cose accadono in alcuni casi, contemporaneamente, alla richiesta di avere almeno un certo livello di accelerazione dedicata che è possibile isolare e leggere comunque i cicli sul processore vettoriale o persino sulla GPU. Era il momento giusto.

È sicuramente qualcosa che dovevamo pianificare molto prima rispetto a quando abbiamo parlato l'ultima volta, ma penso che siano tutti d'accordo questa azienda scommette di sapere esattamente, o quasi esattamente, quali saranno questi carichi di lavoro. Quale tipo di precisione dovrebbe essere necessario e se è stato o meno previsto un budget di calcolo sufficiente per soddisfare la confluenza di casi d'uso futuri. Siamo piuttosto intenzionati a farlo (Qualcomm è sempre stato incentrato sui casi d'uso) e non volevamo eseguire il rischio di avere un'accelerazione dedicata che non verrebbe utilizzata perché potrebbe risultare obsoleta nell'ultima ciclo. Solo in termini di convoluzione generale vediamo abbastanza perché un acceleratore dedicato possa svolgere un lavoro fantastico. Ancora una volta, liberando i cicli altrove. In termini di strategia che abbiamo con questo nuovo acceleratore: è dedicato, è una nuova architettura. Non è un derivato di Hexagon. Ma se pensi a una rete oggi, ci sono alcune funzioni di non linearità che non funzionano bene con alcune delle accelerazioni dedicate..."

Mario Serrafero: "Sì, sigmoideo, ReLU -"

Gary Brotmann: "Esattamente, Softmax. E devi indirizzarli altrove o nella CPU. Ma nel nostro caso, per come l'abbiamo progettato sotto il cofano, il DSP è in realtà il controllo. Determina dove viene eseguita la rete e dove vengono eseguiti i livelli e può decidere se ci sono alcune cose che dovrebbero essere eseguite sul DSP come fallback rispetto al processore tensore. Quindi quell’abbinamento aveva davvero molto senso per noi. Ma ciò non toglie nulla alle nostre convinzioni e alla nostra strategia secondo cui ogni core primario nel nostro SoC ha un ruolo, quindi ottimizziamo su tutta la linea, ma c'è ancora molta variabilità e così sarà Continua."

Mario Serrafero: "Un altro argomento di cui vogliamo parlare sono i casi d'uso. Come hai detto tu, Qualcomm è molto incentrato sui casi d'uso, abbiamo visto l'intelligenza artificiale arrivare sui dispositivi mobili in tre aree principali: riconoscimento vocale, previsione di sequenze come con stringhe e digitazione, e ovviamente visione artificiale come filtri AI, [e oggetti riconoscimento]. La visione artificiale è esplosa, ora la vedi ovunque. Ho visto che con il riconoscimento vocale ognuno ha il proprio assistente AI, ognuno ha il proprio assistente. Ora tutto ciò può essere fatto all’edge con una latenza minima e una sicurezza perfetta. Ma quale sarà il futuro dei casi d'uso dell'apprendimento automatico, e tutti questi casi d'uso saranno sviluppati dalle grandi aziende del mondo - tutti gli Snapchat del mondo, i Facebook là fuori? Come vedi che andrà avanti?"

Gary Brotmann: "Non credo di poter indicare un caso d'uso killer. Ma le capacità consentono una maggiore complessità computazionale e, nel caso della visione, la risoluzione dell’input può essere maggiore. Non stai lavorando su immagini a bassa risoluzione per creare bokeh. Prima nell'altra intervista abbiamo discusso dello streaming 4K come esempio. Non prevedo che ciò sia possibile, ma gli sviluppatori con cui lavoriamo, che si tratti di grandi aziende come Google o la nostra I partner di sviluppo software che stanno effettivamente costruendo gli algoritmi che guidano molte di queste funzionalità mobili, vogliono semplicemente farlo spingere di più. Vogliono andare più lontano. Se c'è qualcosa che vedrei in termini di passaggi successivi, probabilmente non riguarderebbe tanto ciò che accade al di sopra della linea o a livello di app, ma di più su ciò che accade nel sistema, come il miglioramento del funzionamento del prodotto, della gestione energetica e persino nella pipeline della telecamera, non solo in aggiunta a Esso. Hai menzionato l'audio e quante parole chiave supporterai o se potresti eseguire la cancellazione del rumore sul dispositivo. La questione delle parole chiave è interessante perché non è facile costruire la libreria: hai limiti di memoria. Quindi ci sarà ancora un equilibrio tra ciò che è locale e ciò che accadrà nel cloud."

Ziad Asghar: "Posso aggiungere qualcosa. Quindi almeno i due domini in cui sta crescendo molto sono l’audio e l’imaging, oggi. Possiamo vederlo avere molti casi d'uso. Jack ne ha parlato dal punto di vista della fotocamera, abbiamo avuto il motore AI in cui puoi sfruttarlo molto per i casi d'uso dell'imaging. Alcuni di quelli mostrati oggi. E poi se guardi l'audio, non ne abbiamo parlato molto, ma in realtà abbiamo aggiunto anche alcune funzionalità audio al blocco audio. Siamo in grado di eseguire una migliore attivazione vocale in ambienti più rumorosi. Siamo in grado di ottenere una migliore cancellazione del rumore [nell'imaging]. Tutte queste abilità stanno già praticamente accadendo. Ci sono i partner che Gary ha mostrato oggi per l'ISP, ce ne sono molti altri in arrivo. Quindi penso che queste siano le due dimensioni su cui siamo maggiormente concentrati oggi."

Gary Brotmann: "E poi il passo successivo (non ho intenzione di prevedere quando ciò accadrà) è che ora ci sia abbastanza calcolo l'apprendimento sul dispositivo e la sperimentazione sull'apprendimento effettivo sul dispositivo avverranno probabilmente nel prossimo periodo ciclo."

Mario Serrafero: "Questo è probabilmente un argomento che è più divertente da discutere, ed è il fatto che Qualcomm resta fedele al soprannome Hexagon DSP e HVX mentre altre aziende optano per "neurale" così e così. Come vede Qualcomm questa discrepanza e queste diverse strategie e approcci? marketing, ma potremo approfondire un po' più avanti il ​​calcolo eterogeneo rispetto ai bit di blocco specifici come BENE."

Gary Brotmann: "Poiché Hexagon ha già accumulato capitale in DSP, si verrebbe immediatamente a pensare che stiamo semplicemente estendendo la nostra strategia DSP. In realtà per quanto riguarda il marchio, se guardi tutti e tre i processori, il tuo scalare, il tuo vettore e ora il tuo acceleratore tensore dedicato, non sono tutti DSP. Hexagon è davvero un marchio di livello superiore rispetto al semplice DSP. C'è una manciata di DSP. Penso che sia probabilmente un po’ più difficile rispondere alle domande sul marketing perché ogni regione è diversa. La Cina è molto incentrata sulla NPU perché è un soprannome che è stato introdotto l'anno scorso e sembra aver messo radici. Non direi che abbia funzionato in altre parti del mondo. Google ha un processore tensore e il tensore sembra risuonare."

Miglioramenti del Qualcomm Snapdragon 855 nelle prestazioni del carico di lavoro AI. Fonte: Qualcomm.

Mario Serrafero: "Molte persone hanno nomi diversi."

Gary Brotmann: "Alla fine, tutto dipende da cosa vuole fare l'OEM. Se questo è importante per i loro clienti, allora spetta a loro capire come sfruttare tale capacità di elaborazione e differenziarla in termini di capacità. Il nostro motore, e penso che gran parte della capacità di elaborazione di cui disponiamo, sarebbe ancora molto vettoriale e incentrato sul tensore in termini di mix complessivo. L'elaborazione dedicata in sé, il modo in cui esegue la moltiplicazione delle matrici, è lo stesso tipo di processore dedicato che una NPU utilizzerebbe. La domanda di marketing è interessante e, non ricordo, qual è stata la risposta di Keith?"

Ziad Asghar: "La sua risposta è stata: 'puoi chiamarlo come vuoi, per poter vendere più prodotti.'"

Gary Brotmann: "Questo era più o meno tutto; era giusto, è stata una risposta molto schietta."

Ziad Asghar: "Penso che Gary l'abbia trattato molto bene. Alcune persone usano quel soprannome come termine in un modo che quasi afferma o implica che lo limiti solo a quel blocco. Ma quello che vediamo è che tutto questo approccio eterogeneo di poter utilizzare la CPU, o una GPU, o un tensore Hexagon vettore, ti offre diversi compromessi in un intero spettro di precisione in termini di potenza e prestazioni, ed è ciò di cui hai bisogno Oggi. Perché non sappiamo quale applicazione richiede quale grado di precisione, cosa richiede prestazioni sostenute o cosa non lo richiede. Quindi crediamo che sia una soluzione completa e globale perché è così che ottieni la migliore esperienza"

Gary Brotmann: "E questo non è mai cambiato in nessuna delle nostre conversazioni, anche con un acceleratore dedicato. E’ un’aggiunta, non una sostituzione”.

Mario Serrafero: "Sì, penso che sia stato Keith l'anno scorso a dire: 'dove c'è il computer, ci sarà l'intelligenza artificiale.' E ora c'è più calcolo."

Gary Brotmann: "Più elaborazione in ogni blocco, è esattamente vero."

Mario Serrafero: "NEssendo in tema, abbiamo sentito molti paragoni con un “misterioso” concorrente a 7 nm su Android. Sì, non abbiamo ancora idea di chi sia." (parlato per scherzo)

Gary Brotmann: "Nessuna idea." (detto per scherzo)

Mario Serrafero: "Ma potresti darci qualche indizio su questi confronti? Come sono stati misurati? Quali avvertenze vale la pena considerare? Qualche altro commento che forse non avete avuto il tempo di approfondire nelle diapositive o nelle domande e risposte? So che è difficile da misurare [e comunicare] a causa della varietà di modelli, quindi penso che sia così un argomento interessante da approfondire per far sapere alla gente perché non è così facile realizzarli confronti."

Gary Brotmann: "In realtà è abbastanza semplice. Ti darò una risposta molto semplice su una metrica specifica; faremo più benchmarking a gennaio. Parleremo più approfonditamente delle diverse reti utilizzate per misurare i numeri su cui ci basiamo, e questo sarebbe Inception v3 standard. È da lì che ricaviamo le prestazioni e la nostra comprensione della posizione della concorrenza. Ma in termini di quello che ha annunciato e sta lanciando prodotti sul mercato, è qui che arrivano il 2x e il 3x da... beh, il 3x era contro quello che avevamo nell'845, mentre il 2x è la loro misura delle prestazioni e dello stato delle prestazioni relative ai nostri."

Ziad Asghar: "Hai dispositivi disponibili, puoi effettivamente acquisirli ed eseguire tu stesso alcuni di questi test. Ma penso che l’unica cosa da cui mi guarderei è una specie di selvaggio West di benchmarking dell’intelligenza artificiale. Alcune persone utilizzano termini molto generalizzati o mix di reti che potrebbero avvantaggiarli in un modo particolare o meno. "Ciò si allineerà bene con un carico di lavoro modale?" non è qualcosa che le persone tengono in considerazione. Alcuni dei benchmark in circolazione fanno molto di più, e siamo molto vicini So che ci sono persone che stanno facendo oscillare questi parametri di riferimento in un modo o nell'altro a seconda di ciò che favorisce loro. Ecco perché si tratta molto di più di casi d’uso reali. Si tratta anche di ottenere le migliori prestazioni della categoria per quel caso d'uso e di realizzarlo il più rapidamente possibile. Penso che questi siano tutti i fattori che guardiamo. Ma penso che migliorerà, convergerà. In questo momento, c’è una varietà di opzioni diverse là fuori. Penso che manterrai alcuni parametri di riferimento che hanno più senso. Oggi forse potresti sostenere che Inception v3 è relativamente migliore in questo momento."

Gary Brotmann: "In termini di reti, ce ne sono una manciata. Ci sono ResNet, VGG, reti di segmentazione, reti a super risoluzione: prestazioni grezze con cui puoi misurarle. Il punto da togliere in termini di benchmark come aziende o entità che stanno facendo benchmarking sull'intelligenza artificiale, e loro hanno miscele di precisezze, reti e formule variabili, sono così variabili che i risultati cambiano di settimana in settimana. È lì che è veramente il selvaggio West e ci teniamo a debita distanza. Non scommettiamo da nessuna parte, perché c'è molta variabilità per quanto riguarda le prestazioni effettive di alcune di queste reti che vengono utilizzati nei casi d'uso, siamo fiduciosi di essere ancora decisamente ai primi posti in termini di prestazioni rispetto a concorrenza. Direi non la classifica ma il raddoppio di cui abbiamo parlato, prestazione cruda".

Mario Serrafero: "Uno degli argomenti a cui siamo interessati come sito principalmente per sviluppatori è la democratizzazione dell'apprendimento automatico. Ovviamente, abbiamo librerie open source che sono fantastiche, tutti offrono anche questi fantastici SDK e c'è molta formazione. E ora Android NN è disponibile e Google lo ha appena rilasciato Kit ML che semplifica il processo. Basta chiamare un'API, fornirle il tuo input, usano un modello addestrato, non devi preoccuparti di questo, non devi pensarci, non devi conoscere alcuna statistica o alcun calcolo vettoriale. Come vedi che il panorama si è evoluto a questo riguardo rendendolo più accessibile, semplificando l'API, semplificando la documentazione, gli SDK e promuovendo l'inclusione di sviluppatori di terze parti, non solo big aziende?"

Gary Brotmann: "È divertente quando ci concentriamo davvero sulle grandi aziende, aiuta anche gli sviluppatori più piccoli. Abbiamo iniziato con uno stack più proprietario quando si trattava di programmare per Snapdragon, in particolare per l'esecuzione dell'intelligenza artificiale. Ma nel tempo, e nelle ultime due generazioni, abbiamo aggiunto altri strumenti. Stiamo cercando di trovare un equilibrio tra astrazione di alto livello e facilità d'uso e accesso di livello inferiore, che richiede qualcuno essere molto più esperti soprattutto quando si tratta di gestire alcuni dei nostri core proprietari come il processore vettoriale o l'NPU. Lo vediamo evolversi dal punto di vista della democratizzazione. Abbiamo gli elementi costitutivi di base come le librerie matematiche Hexagon e Qualcomm, ma forse un'API di livello leggermente superiore che astrae almeno parte di quel lavoro pesante, ma offre allo sviluppatore una flessibilità sufficiente per poter utilizzare i propri operatori personalizzati o per poter modificare leggermente in termini di prestazioni a un livello inferiore livello. Quindi il portafoglio continuerà a coinvolgere più strumenti e sicuramente cose come NN API dove Onyx è un esempio per essere in grado di fondamentalmente dici "ecco cosa stai programmando, in cosa stai esprimendo la tua rete". Finché l'hardware lo supporta, lo sei Bene.

Come ho accennato nella nostra presentazione, siamo responsabili di un panorama multi-OS. C'è Windows, c'è Linux, c'è Android, quindi non si tratta solo di Android. Quando guardiamo questo, se costruiremo una sorta di API che sarà SoC, cross-SoC o multipiattaforma dal punto di vista del sistema operativo, dobbiamo cercare e vedere come trovare elementi comuni in ciò che costruiamo sotto il sistema operativo cappuccio. Lo stack con librerie e supporto per gli operatori e la possibilità di collegarsi a NN API o Windows ML, ad esempio. Ma certamente siamo passati dal fatto che il pendolo è qui dove nessuno sa davvero cosa fare letteralmente, non sapendo. “Non so quale quadro utilizzare. Uso TensorFlow o dovrei usare Caffe o Torch?" E non sapere cosa fare per ottimizzare al livello inferiore. Quindi tutti sono contenti di una chiamata API. Ora, nel giro di un paio d'anni, è facile andare più a fondo. Quindi gli strumenti ci sono, siano essi strumenti open source comuni, o anche in un portafoglio come quello che offriamo noi o quello offerto dalla concorrenza, quegli strumenti stanno diventando più facilmente accessibili e più facili da usare."

Il motore AI di Qualcomm e i framework AI, i sistemi operativi, gli ecosistemi, le funzionalità e i dispositivi supportati. Fonte: Qualcomm.

Mario Serrafero: "Parlando di comunità di sviluppatori. L’ultima volta abbiamo menzionato una delle comunità più mature che abbiamo è quella dei videogiochi, e Qualcomm è piuttosto ben integrata in essa. Ora lo vediamo più che mai grazie alle partnership con i motori di gioco che vengono promosse e commercializzate. Quindi ne parlavamo nel contesto dell'intelligenza artificiale e di come sta emergendo lì."

Mishaal Rahman: "Stavi parlando di come volevi investire di più nei prossimi 12 mesi. Questo è successo l'ultima volta che siamo stati qui."

Mario Serrafero: "In particolare nella comunità degli sviluppatori di giochi, in un certo senso espandere questo e ciò che vediamo oggi."

Gary Brotmann: "Non ricordo il commento specifico sull'investimento nella comunità dei videogiochi, ma se guardi una categoria che abbiamo visto guidare la necessità di un'accelerazione dedicata, e il gioco ne è una componente, ma non è necessariamente il caso d'uso principale: la realtà virtuale come strumento esempio. In un'esperienza VR ricca e coinvolgente, ogni core viene sostanzialmente sfruttato. Stai eseguendo l'elaborazione grafica sulla GPU, l'elaborazione visiva sul processore vettoriale e la necessità di farlo prendi una o più reti ed eseguile separatamente su un acceleratore dedicato senza la preoccupazione della concorrenza impatto. Questo è uno dei motivi che ci ha spinto a intraprendere la strada dell'accelerazione dedicata. Non ho molte informazioni riguardo a come l'intelligenza artificiale viene sfruttata nei giochi oggi. C'è molto lavoro con gli agenti: sviluppare agenti per combattere o insegnarti."

Mario Serrafero: "Come l'intelligenza artificiale tradizionale nei giochi."

Gary Brotmann: "Completamente giusto. Ma essendo più basati sulla rete neurale."

Mario Serrafero: "Sì, non il Minimax."

Gary Brotmann: "Parte della responsabilità di Ziad è anche guidare la strategia XR."

Ziad Asghar: "Per quanto riguarda XR, se guardi oggi, abbiamo lanciato nuovi dispositivi che sono HMD all-in-one con abilitazione completa 6DOF. Dispositivi come Oculus Quest sono stati lanciati effettivamente con lo Snapdragon 835, quindi stiamo iniziando ad arrivare a un ottimo punto in termini di sfruttamento effettivo della piena capacità dei dispositivi XR. In passato, alcuni dispositivi non offrivano davvero quell'esperienza incontaminata perché alcune persone non ne ottenevano la migliore esperienza. Penso che XR ora stia andando alla grande. Ciò a cui guardiamo anche in futuro, quando si unirà al 5G, è che ora sia possibile ricevere il tuo dispositivo è in realtà molto più mobile, il che significa che puoi immaginare che stai effettivamente camminando su un strada. E poi avere un collegamento come il 5G significa che piace il demo di Google Lens mostrata da Gary. Ora immagina che se indossassi una sorta di occhiali Google o qualcosa del genere e potessi effettivamente portarli dentro tutte le informazioni su ciò che stai guardando attraverso i tuoi occhi, ora hai un caso d'uso che potrebbe davvero essere molto avvincente. Penso che sia qui che si concentra l’investimento a lungo termine di cui parli, questa è la direzione in cui va.

Ma in questo momento, riteniamo di essere in un ottimo stato in termini di XR e di tutte le diverse aziende che hanno lanciato XR. Anche Oculus Go è basato su Snapdragon 820, quindi penso che stiamo iniziando ad arrivare a un ottimo punto in cui le persone lo stanno adottando e ci fanno molte cose. E la fase successiva, come ho già detto, è che inizieremo a introdurre la connettività 5G, cosa che faremo e poi oltre quello ovviamente AR e alcune cose che richiederanno anche molto di più in termini di prestazioni, ma limitate energia. E sarà estremamente impegnativo, e penso che con quello di cui abbiamo parlato oggi, Qualcomm sia probabilmente il migliore in termini di realizzazione di uno qualsiasi di questi casi d'uso in termini di potenza. Se guardi la grafica, se confronti uno qualsiasi dei concorrenti, vedrai che le nostre prestazioni per unità di potenza sono le migliori della categoria. E di conseguenza, le temperature e le prestazioni sostenute sono ciò che conta nell'XR, e in questo senso siamo davvero all'avanguardia: questo è il motivo per cui le persone ci usano per l'XR."

Oculus Go è alimentato dalla piattaforma mobile Qualcomm Snapdragon 821.

Mario Serrafero: "Dall'anno scorso, abbiamo visto il DSP Hexagon 685 raggiungere finalmente la fascia media premium con il 710 e la gamma media corretta con il 670 E 675. Quindi ora stiamo facendo avanzare le Hexagon Vector Extensions mentre altri concorrenti non lo fanno con le loro unità di elaborazione neurale. Come ritieni che l'estensione della portata di queste esperienze, e volevo chiederti se, in passato, hai visto che le discrepanze prestazionali nell'intelligenza artificiale facevano la differenza? Perché siamo ancora nella fase iniziale dell’adozione dell’intelligenza artificiale”.

Ziad Asghar: "Guardo la tabella di marcia complessiva. Se stai cercando le prestazioni migliori della categoria, sarà nel livello premium. Quello che stiamo facendo è prendere selettivamente alcune delle capacità di Hexagon e abbassarle. Il primo motore AI, o il primo Hexagon, è stato avviato con lo Snapdragon 820. Quindi lo abbiamo portato allo Snapdragon 660 e al 670, e anche il 710 lo ha. Quindi, il nostro piano è vedere come si inserisce nelle esperienze future.

Come motore AI, abbiamo vecchi componenti di base: CPU, GPU, tensore esagono, vettore esagono e scalare. Ciò che facciamo è portare selettivamente alcune parti di ciò più in basso nella tabella di marcia mentre vediamo che quelle abilità stanno diminuendo e entrando in visori di livello inferiore. In realtà lo vedrete man mano che andremo avanti nel corso dell'anno. vedrai che ne faremo di più. Abbiamo lanciato Snapdragon 675 al Summit 4G/5G. Ne abbiamo parlato con il 675, e quello che vedrete è che questi casi d'uso stanno diventando sempre più numerosi prevalenti, come abbiamo dimostrato oggi con ArcSoft e tutti gli altri ragazzi, porteremo effettivamente queste funzionalità inferiore. Nel livello inferiore sarai in grado di eseguire quel caso d'uso, ma sarai in grado di ottenere il giusto profilo di potenza come me di cui abbiamo parlato prima, se vuoi avere quella prestazione sostenuta, vuoi che quel particolare blocco arrivi inferiore. Quindi, ancora una volta, le prestazioni migliori della categoria saranno al massimo, ma man mano che si scende ci sarà un grande degrado o gradazione di..."

Mario Serrafero: "Discesa graduale, si potrebbe dire." (parlato per scherzo)

Ziad Asghar: "Si Esattamente. È un po’ come facciamo con altre tecnologie anche sulla tabella di marcia e l’intelligenza artificiale non sarà molto diversa in questo senso. Probabilmente è una differenza, forse da dove vieni, dato che probabilmente sta scendendo più velocemente attraverso altre tecnologie che abbiamo inserito nella tabella di marcia, quindi quest'osservazione sono d'accordo con."


Se sei interessato a saperne di più sull'intelligenza artificiale nelle piattaforme mobili di Qualcomm, ti consigliamo di leggere la nostra intervista dell'anno scorso con Gary Brotman. Puoi iniziare con parte 1 della nostra intervista o vai a parte 2.

Tutti i grafici mostrati in questa intervista provengono dalla presentazione di Gary Brotman durante lo Snapdragon Tech Summit. È possibile visualizzare le diapositive Qui.