Qualcomms Gary Brotman og Ziad Asghar satte sig ned med XDA til et interview om AI-tilstanden og hvad der er nyt i Hexagon 690 DSP i Snapdragon 855.
Da Qualcomm afslørede deres nye Snapdragon 855 mobil platform, udråbte de væsentlige forbedringer i alle aspekter af mobil computing. For den gennemsnitlige bruger er det let at forstå slutbrugerfordele bag CPU- og GPU-forbedringer som Qualcomm lavede i Snapdragon 855. Bedre CPU-ydeevne betyder, at apps indlæses hurtigere, og bedre GPU-ydeevne betyder bedre framerates, når du spiller. Hvad der er mindre intuitivt for brugere at forstå, er AI (kunstig intelligens), og specifikt, maskinlæringsteknikker, som app og tjenester i stigende grad anvender, såsom kunstig neural netværk. Qualcomm opnåede store gevinster i AI-arbejdsbyrdeydelsen med Snapdragon 855 takket være forbedringer i computing over hele linjen, og især på grund af den fornyede Hexagon 690 DSP. Vi sad sammen med Gary Brotman, chef for AI og Machine Learning Strategy and Product Planning hos Qualcomm, og Ziad Asghar, Vice President for Snapdragon Roadmap Planning og AI, XR, Competitive Strategy hos Qualcomm, for at lære mere om de forbedringer, Qualcomm har lavet i AI-arbejdsbelastninger.
Mario Serrafero: "Så den nye DSP. Sidste år spurgte jeg dig om angrebsstrategien med hensyn til, hvordan Qualcomm skubbede, promoverede, markedsførte og kommunikerede DSP og HVX, især. På det tidspunkt, som en AI-blok, var den stadig relativt ny for de fleste læsere og forbrugere. Så vi undrer os over, hvordan du har set dette udvikle sig siden da med den videre promovering af 845'eren."
Gary Brotman: "Først og fremmest, da vi begyndte at gøre dette tilbage med 820'eren, var det stadig meget CPU- og GPU-centreret, og udnyttede DSP'en og vektorbehandlingsmulighederne for det kom virkelig som et resultat af, hvor Google forsøger at lede med TensorFlow og 8-bit matematik. Så det var der, vi virkelig strakte benene i DSP, eller lad os sige vektorprocessorerne. I betragtning af modenheden af vektorprocessoren, som vi har i Hexagon, og den måde, vi var i stand til at fremme den køreplan så hurtigt i de næste to generationer og de use cases, som vi så, som på det tidspunkt, grundlæggende klassifikationsnetværk var ret ligetil med ikke mange tyngde. De kan køre fint med 8-bit matematik. En dedikeret accelerator, selv sidste år, var en risiko for grundlæggende at allokere areal til noget, der måske ikke bliver brugt. Sammenløbet for use cases, og det er alt fra dit standard enkeltkamera, super opløsning eller segmentering i realtid. Disse ting sker i nogle tilfælde, samtidig med, at efterspørgslen efter at have i det mindste et vist niveau af dedikeret acceleration, du kan afskærme og stadig læse cyklusser på vektorprocessoren eller endda GPU'en. Det var det rigtige tidspunkt.
Det er bestemt noget, vi skulle planlægge meget tidligere, end da vi talte sammen sidst, men jeg tror, at alle er med denne virksomhed satser på, at de ved nøjagtigt, eller tæt på præcis, hvad disse arbejdsbyrder vil være. Hvilken type præcision skulle være nødvendig, og hvis du havde eller ikke havde budgettet nok med beregninger til at tilfredsstille det sammenløb af brugssager, der kommer. Vi er ret bevidste i det – Qualcomm har altid været use case-centreret – og vi ønskede ikke at køre risiko for at have dedikeret acceleration, der ikke ville blive brugt, fordi den kunne være forældet i den sidste cyklus. Vi ser nok i form af generel foldning alene, som en dedikeret accelerator kan gøre et fantastisk stykke arbejde med. Igen, frigør cyklusserne andre steder. Med hensyn til den strategi, vi har med denne nye accelerator: Den er dedikeret, det er en ny arkitektur. Det er ikke et Hexagon-derivat. Men hvis du tænker på et net i dag, er der visse ikke-linearitetsfunktioner, der ikke fungerer godt på nogle af de dedikerede accelerationer -"
Mario Serrafero: "Ja, sigmoid, ReLU -"
Gary Brotman: "Nøjagtig, Softmax. Og du skal sende dem et andet sted eller til CPU'en. Men i vores tilfælde, sådan som vi på en måde har konstrueret dette under motorhjelmen, er DSP faktisk kontrollen. Det bestemmer, hvor nettet kører, og hvor lagene kører, og kan afgøre, om der er visse ting, der skal køre på DSP'en som et fallback i forhold til at køre på tensor-processoren. Så den parring gav faktisk rigtig god mening for os. Men det forringer ikke vores overbevisning og vores strategi om, at hver primær kerne i vores SoC har en rolle, så vi optimerer over hele linjen, men der er stadig meget variation, og det vil Blive ved."
Mario Serrafero: "Et andet emne, vi gerne vil tale om, er use cases. Som du sagde, er Qualcomm meget brugs-case-centreret, vi har set AI komme til mobil på tre hovedområder: talegenkendelse, sekvens forudsigelse som med strenge og indtastning, og naturligvis computer vision som AI-filtre, [og objekt anerkendelse]. Computersyn eksploderede, nu ser du det overalt. Jeg har set med talegenkendelse, at alle har deres egen AI-assistent, alle har deres egen assistent. Nu kan alt det gøres på kanten med lille latency og perfekt sikkerhed. Men hvad er det næste for use cases af machine learning, og skal alle disse use cases udvikles af de store virksomheder i verden - alle Snapchats i verden, Facebooks derude? Hvordan ser du det rulle?"
Gary Brotman: "Jeg tror ikke, jeg kan pege på en morderlig brugssag. Men mulighederne giver mulighed for mere beregningsmæssig kompleksitet, og i tilfælde af vision kan inputopløsningen være højere. Du arbejder ikke på billeder i lav opløsning for at lave bokeh. Der var en diskussion tidligere i det andet interview, vi havde omkring 4K-streaming som et eksempel. Jeg vil ikke forudsige, at det er muligt, men de udviklere, som vi arbejder med, uanset om det er store virksomheder som Google eller vores softwareudviklingspartnere, der rent faktisk bygger de algoritmer, der driver mange af disse mobile funktioner, de vil bare gerne skubbe mere. De vil gerne længere. Hvis der er noget, jeg ville se i forhold til de næste trin, ville det sandsynligvis handle mindre om, hvad der sker over stregen eller på app-niveau, og mere om, hvad der sker i systemet som at forbedre den måde, produktet fungerer på, strømstyring og endda i kamerapipelinen, ikke kun oveni det. Du nævnte lyd, og hvor mange søgeord du vil understøtte, eller hvis du kunne foretage støjreduktion på enheden. Nøgleordet er interessant, fordi det ikke er nemt at opbygge biblioteket – du har begrænset hukommelse. Så der vil stadig være en balance mellem, hvad der er lokalt, og hvad der kommer til at ske i skyen."
Ziad Asghar: "Jeg kan tilføje lidt. Så i det mindste de to domæner, hvor det vokser meget, er lyd og billedbehandling i dag. Vi kan se, at det har mange use cases. Jack talte om det fra et kameraperspektiv, vi har haft AI-motoren, hvor du kan udnytte meget af det til billeddannelsesbrug. Nogle af dem, der blev vist i dag. Og hvis du så ser på lyd, talte vi ikke så meget om det, men vi tilføjede faktisk også nogle lydfunktioner til lydblokken. Vi er i stand til at lave bedre stemmeaktivering i mere støjende omgivelser. Vi er i stand til at gøre bedre støjreduktion [i billedbehandling]. Alle disse evner er dybest set allerede ved at ske. Der er de partnere, som Gary viste i dag for internetudbyderen, der kommer mange flere af dem. Så jeg tror, det er de to dimensioner, som vi er mere fokuserede på i dag."
Gary Brotman: "Og så er det næste skridt - jeg vil ikke forudsige, hvornår dette sker - er der nok beregning nu, hvor læring på enheden og eksperimentering omkring faktisk læring på enheden vil sandsynligvis ske i det næste cyklus."
Mario Serrafero: "Dette er sandsynligvis et emne, der er sjovere at diskutere, og det er det faktum, at Qualcomm holder fast i Hexagon DSP-monikeren og HVX, mens andre virksomheder vælger "neural" den og den. Hvordan ser Qualcomm denne uoverensstemmelse og disse forskellige strategier og tilgange med hovedsageligt markedsføring, men vi kan komme lidt ind på den heterogene beregning versus specifikke blokbits som godt."
Gary Brotman: "Fordi Hexagon allerede har opbygget egenkapital i DSP, ville man umiddelbart trække til at tro, at vi blot udvider vores DSP-strategi. Faktisk på mærke, hvis du ser på alle tre processorer, din skalar, din vektor og nu din dedikerede tensoraccelerator, er de ikke alle DSP. Hexagon er virkelig et mærke på højere niveau end blot DSP. Der er en håndfuld DSP'er. Jeg tror, at marketingspørgsmålene nok er lidt sværere at besvare, fordi hver region er forskellig. Kina er meget NPU-centreret, fordi det er en moniker, der blev introduceret sidste år, og det ser ud til at være en, der har slået rod. Jeg vil ikke sige, at det har fungeret andre steder i verden. Google har en tensor-processor, og tensor ser ud til at give genlyd."
Mario Serrafero: "Mange mennesker har deres egne forskellige navne."
Gary Brotman: "I sidste ende kommer det ned til, hvad OEM ønsker at gøre. Hvis det betyder noget for deres kunder, så er det deres pligt at finde ud af, hvordan de kan udnytte denne behandlingsevne og differentiere på den med hensyn til muligheder. Vores motor, og jeg tror, at en stor del af den behandlingskapacitet, vi har, ville stadig være meget vektor- og tensor-centreret i forhold til det samlede mix. Selve den dedikerede behandling, den måde den gør matrixmultiplikation på, det er den samme slags dedikerede processor, som en NPU ville [bruge]. Marketingspørgsmålet er interessant, og jeg glemmer, hvad var Keiths svar?"
Ziad Asghar: "Hans svar var, 'du kan kalde det, hvad du vil, for at kunne sælge mere produkt'."
Gary Brotman: "Det var stort set det; det var rigtigt, det var et meget direkte svar."
Ziad Asghar: "Jeg synes, Gary dækkede det rigtig godt. Nogle af de mennesker, der bruger det moniker som et udtryk på en måde, der næsten angiver eller antyder, at det kun begrænser det til den blok. Men det, vi ser, er, at hele denne heterogene tilgang til at kunne bruge CPU'en eller en GPU eller en Hexagon-tensor vektor, giver dig forskellige afvejninger i et helt spektrum af præcision med hensyn til kraft og ydeevne, og det er det, du har brug for i dag. Fordi vi ikke ved, hvilken applikation der kræver, hvilken grad af præcision, hvad der kræver vedvarende ydeevne, eller hvad der ikke kræver det. Så vi tror på, at det er en komplet, samlet løsning, fordi det er sådan, du får den bedste oplevelse"
Gary Brotman: "Og det har aldrig ændret sig i nogen af vores samtaler, selv med en dedikeret accelerator. Det er en tilføjelse, det er ikke en erstatning."
Mario Serrafero: "Ja, jeg tror, det var Keith sidste år, der sagde, "hvor der er computere, vil der være AI." Og nu er der mere computer."
Gary Brotman: "Mere beregning i hver blok, det er helt rigtigt."
Mario Serrafero: "NNår vi er på emnet, har vi hørt mange sammenligninger med en "mystisk" 7nm-konkurrent på Android. Ja, vi har stadig ingen anelse om, hvem det er." (talt i spøg)
Gary Brotman: "Ingen ide." (talt i spøg)
Mario Serrafero: "Men kan du give os et fingerpeg om disse sammenligninger? Hvordan blev de målt? Hvilke forbehold er værd at overveje? Andre kommentarer, som I måske ikke havde tid til at uddybe i slides eller i Q&A? Jeg ved, at det er lidt svært at måle [og kommunikere] på grund af de mange forskellige modeller, så jeg tror, det er et interessant emne at uddybe for at lade folk vide, hvorfor det ikke er så nemt at lave dem sammenligninger."
Gary Brotman: "Det er faktisk ret simpelt. Jeg vil give dig et meget simpelt svar på en bestemt metrik; vi kommer til at lave mere benchmarking i januar. Vi vil tale mere om de forskellige net, der bruges til at måle de tal, vi baserer det på, og det ville være standard Inception v3. Det er der, vi henter den præstation og vores forståelse af, hvor konkurrencen rangerer. Men i forhold til den, der har annonceret og er ude med produkter på markedet, så er det her 2x og 3x kommer fra - ja, 3x var imod, hvad vi havde i 845, mens 2x er deres mål for ydeevne og ydeevne i forhold til til vores."
Ziad Asghar: "Du har enheder til rådighed, du kan faktisk erhverve dem og prøve noget af det selv. Men jeg tror, at det eneste, jeg vil gardere mig imod, er en slags vilde vesten for benchmarking af AI. Nogle mennesker bruger nogle meget generaliserede udtryk eller blandinger af netværk, som kan gavne dem på en bestemt måde eller ej. "Vil det passe godt med en modal arbejdsbyrde?" er ikke noget, folk tager i betragtning. Nogle af de benchmarks, der har svævet rundt, gør meget mere af det, og vi er meget tæt på, så vi ved, at der er mennesker, der får disse benchmarks til at svaje på den ene eller anden måde afhængigt af, hvad der favoriserer dem. Derfor handler det meget mere om faktiske use cases. Det handler også meget mere om klassens bedste ydeevne for den brugssag, og så handler det om at få det gjort hurtigst. Jeg tror, det er alle de faktorer, vi ser på. Men jeg tror, det bliver bedre, det vil konvergere. Lige nu er der en række forskellige muligheder derude. Jeg tror, du vil have visse benchmarks, som giver mere mening. I dag kan man måske argumentere for, at Inception v3 er relativt bedre på dette tidspunkt."
Gary Brotman: "Med hensyn til netværk er der en håndfuld. Der er ResNet, VGG, segmenteringsnet, superopløsningsnet – rå ydeevne, du kan måle disse med. Pointen at tage væk med hensyn til benchmarks som virksomheder eller enheder, der laver AI-benchmarking, og de har blandinger af præcisioner, netværk og formler, der er variable, de er så variable, at resultaterne ændrer sig uge til uge. Det er der, det virkelig er det vilde vesten, og vi holder en armslængde. Vi placerer ikke vores indsatser nogen steder, fordi der er så meget variation, når det kommer til den faktiske ydeevne af nogle af disse netværk der bruges i use cases, føler vi os overbevist om, at vi stadig helt klart rangerer der oppe med hensyn til ydeevne i forhold til konkurrence. Jeg skulle ikke sige rangering, men fordoblingen, som vi talte om, rå præstation."
Mario Serrafero: "Et af de emner, som vi er interesserede i som site primært for udviklere, er demokratisering af maskinlæring. Det er klart, at vi har open source-biblioteker, som er fantastiske, alle tilbyder også disse fantastiske SDK'er, og der er masser af uddannelse. Og nu er Android NN tilgængelig, og Google er netop frigivet ML sæt hvilket forenkler processen. Du ringer bare til en API, giver den dit input, de bruger en trænet model, du behøver ikke bekymre dig om det, du behøver ikke at tænke over det, du behøver ikke at kende nogen statistik eller nogen vektorregning. Hvordan ser du, at landskabet har udviklet sig i denne henseende ved at gøre det mere tilgængeligt, forenkle API'en, forenkling af dokumentationen, SDK'erne og fremme af inddragelsen af tredjepartsudviklere, ikke kun store virksomheder?"
Gary Brotman: "Det er sjovt, når vi rent faktisk fokuserer på store virksomheder, det hjælper også de mindre udviklere. Vi startede med mere af en proprietær stak, når det kom til programmering til Snapdragon, specifikt til at køre AI. Men med tiden og i de sidste par generationer har vi tilføjet flere værktøjer. Vi forsøger at finde en balance mellem abstraktion på højt niveau og brugervenlighed og adgang på lavere niveau, hvilket kræver nogen at være meget mere kyndig, især når det kommer til at håndtere nogle af vores proprietære kerner som vektorprocessoren eller NPU'en. Vi ser det udvikle sig fra et demokratiseringssynspunkt. Vi har de grundlæggende byggeklodser som Hexagon og Qualcomm matematikbiblioteker, men måske en lidt højere niveau API, der abstraherer i det mindste noget af det tunge løft, men giver udvikleren tilstrækkelig fleksibilitet til at kunne bruge deres egne brugerdefinerede operatører eller være i stand til at justere en lille smule med hensyn til ydeevne på den lavere niveau. Så porteføljen vil fortsætte med at involvere flere værktøjer, og bestemt ting som NN API, hvor Onyx er et eksempel på at kunne dybest set sige "her er hvad du programmerer, hvad du udtrykker dit netværk i." Så længe hardwaren understøtter det, er du det godt.
Som jeg nævnte i vores præsentation, er vi ansvarlige for et multi-OS-landskab. Der er Windows, der er Linux, der er Android, så det handler ikke kun om Android. Når vi ser på dette, hvis vi skal konstruere en slags API, der vil være SoC, cross-SoC eller på tværs af platforme fra et OS-synspunkt, er vi nødt til at se og se, hvordan vi finder fællestræk i det, vi bygger under hætte. Stakken med biblioteker og operatørunderstøttelse og at kunne tilsluttes NN API eller Windows ML, som et eksempel. Men bestemt, vi er gået fra at pendulet er herovre, hvor ingen rigtig ved, hvad de skal gøre, f.eks bogstaveligt talt, ikke at vide. ”Jeg ved ikke, hvilken ramme jeg skal bruge. Bruger jeg TensorFlow, eller skal jeg bruge Caffe eller Torch?" Og ikke at vide, hvad man skal gøre for at optimere på det lavere niveau. Så alle er glade for et API-kald. Nu, inden for blot et par år, er det nemt at gå dybere. Så værktøjerne er der, uanset om de er almindelige open source-værktøjer, eller endda i en portefølje, som vi tilbyder eller konkurrenter tilbyder, bliver disse værktøjer lettere tilgængelige og nemmere at bruge."
Mario Serrafero: "Apropos udviklerfællesskaber. Sidste gang vi nævnte et af de mest modne fællesskaber, vi har, er spilfællesskabet, og Qualcomm er ret godt indlejret i det. Nu ser vi det mere end nogensinde med partnerskaberne med de spilmotorer, der promoveres og markedsføres. Så vi talte om det i forbindelse med kunstig intelligens, og hvordan det opstår der."
Mishaal Rahman: "Du talte om, hvordan du ville investere mere i løbet af de næste 12 måneder. Det var tilbage sidste gang, vi var her."
Mario Serrafero: "I specifikt spiludviklerfællesskabet, en form for udvidelse af det og det, vi ser i dag."
Gary Brotman: "Jeg kan ikke huske den specifikke kommentar om at investere i spilfællesskabet, men hvis du ser på en kategori, som vi så køre behovet for dedikeret acceleration, og spil er en del af dette, men det er ikke nødvendigvis den primære anvendelse - VR som en eksempel. I en rig, fordybende VR-oplevelse er hver kerne dybest set udnyttet. Du laver grafikbehandling på GPU'en, visuel behandling på vektorprocessoren og behovet for det tag et eller flere net og kør dem separat på en dedikeret speeder uden bekymringer om samtidighed indvirkning. Det er en af grundene til, at vi drev os ned ad vejen til at have dedikeret acceleration. Jeg har ikke mange oplysninger om, hvordan AI bliver udnyttet i spil i dag. Der er meget arbejde med agenter - at udvikle agenter til at bekæmpe eller lære dig."
Mario Serrafero: "Som den traditionelle AI i spil."
Gary Brotman: "Lige præcis. Men at være mere neuralt netværksbaseret."
Mario Serrafero: "Ja, ikke Minimax."
Gary Brotman: "En del af Ziads ansvar er også at drive XR-strategi."
Ziad Asghar: "XR-mæssigt, hvis du ser på det i dag, har vi lanceret nye enheder, der er alt-i-én HMD'er med fuld 6DOF-aktivering. Enheder som Oculus Quest, der faktisk blev lanceret med Snapdragon 835, så vi begynder at komme til et meget godt punkt i forhold til rent faktisk at udnytte XR-enhedernes fulde evne. Tidligere gav nogle af enhederne ikke rigtig den uberørte oplevelse, fordi nogle mennesker ikke har fået den bedste oplevelse ud af det. Jeg synes, XR nu gør det godt. Det, vi også ser på i fremtiden, da det kombineres med 5G, er, at det giver dig mulighed for nu at tage din enhed, der faktisk er meget mere mobil, hvilket betyder, at du kan forestille dig, at du rent faktisk går på en gade. Og så at have et link som 5G betyder det ligesom demo, som Gary viste af Google Lens. Forestil dig nu, at hvis du bar en slags Google-briller eller sådan noget, og du faktisk er i stand til at bringe ind information alt i retning af det, du ser på gennem dine øjne, nu har du en use case, der virkelig kunne være meget overbevisende. Jeg tror, det er der, hvor den langsigtede investering, du taler om, det er en slags retning, den går.
Men lige nu føler vi, at vi er i en meget god tilstand med hensyn til XR og alle de forskellige virksomheder, der er lanceret med XR. Oculus Go er også baseret på Snapdragon 820, så jeg tror, vi begynder at nå et meget godt punkt, hvor folk samler det op og gør en masse ting med det. Og den næste fase, som jeg nævnte, er, at vi begynder at bringe 5G-forbindelse ind, hvilket vi vil gøre og derefter videre at selvfølgelig AR og nogle ting, der endda vil kræve meget mere med hensyn til ydeevne, men alligevel begrænset strøm. Og det bliver ekstremt udfordrende, og jeg tror, at med det, vi talte om i dag, er Qualcomm nok den bedste i forhold til at udføre nogen af disse use cases med hensyn til magt. Hvis du ser på grafikken, hvis du benchmarker nogen af konkurrenterne, vil du se, at vores ydeevne pr. enhedseffekt er bedst i klassen. Og som en konsekvens af det, termikken, den vedvarende ydeevne er det, der betyder noget i XR, og i den henseende er vi virkelig foran - det er grunden til, at folk bruger os til XR."
Mario Serrafero: "Siden sidste år har vi set Hexagon 685 DSP endelig nå den førsteklasses mellemklasse med 710 og den rigtige mellemtone med 670 og 675. Så nu får vi Hexagon Vector Extensions på vej nedstrøms, mens andre konkurrenter ikke helt gør det med deres neurale behandlingsenheder. Hvordan ser du, at det at udvide rækkevidden af disse oplevelser, og jeg ville spørge, om du tidligere så, at uoverensstemmelserne i AI overhovedet gjorde en forskel? Fordi vi stadig er i den tidlige indførelse af AI."
Ziad Asghar: "Jeg ser på den overordnede køreplan. Hvis du leder efter den uberørte bedste ydeevne i klassen, vil den være i premium-niveauet. Det, vi gør, er, at vi selektivt tager nogle af Hexagon-funktionerne og sænker dem. Den første AI-motor, eller den første Hexagon, blev startet med Snapdragon 820. Så vi har bragt det ned til Snapdragon 660 og til 670, og 710 har det også. Så vores plan er at se, hvordan det bryder ind i de fremtidige oplevelser.
Som en AI-motor har vi grundlæggende gamle komponenter: CPU, GPU'er, Hexagon-tensor, Hexagon-vektor og skalar. Det, vi gør, er, at vi selektivt bringer dele af det længere ned i køreplanen, efterhånden som vi ser, at disse evner falder og går ind i headset på lavere niveau. Du vil faktisk se, efterhånden som vi går videre i løbet af året. du vil se, at vi vil gøre mere af det. Vi lancerede Snapdragon 675 på 4G/5G-topmødet. Vi talte om, at det kommer ned med 675'eren, og hvad du vil se er, efterhånden som disse use cases bliver flere udbredt, som vi viste med ArcSoft og alle de andre fyre i dag, vil vi faktisk bringe disse muligheder nederste. I det nederste niveau vil du være i stand til at køre den use case, men for at være i stand til at få den rigtige strømprofil som jeg talte om tidligere, hvis du vil have den vedvarende ydeevne, vil du have, at den pågældende blok skal komme nederste. Så igen, klassens bedste ydeevne vil være i top, men efterhånden som du går lavere, vil der være en stor nedbrydning eller graduering af..."
Mario Serrafero: "Gradient nedstigning, kan man sige." (udtalt i spøg)
Ziad Asghar: "Ja, præcis. Det er sådan set, vi gør med andre teknologier også på køreplanen, og AI bliver ikke meget anderledes i den forstand. Det er formentlig én forskel, måske hvor du kommer fra, da det nok kommer hurtigere ned gennem andre teknologier, som vi har bragt ned i køreplanen, så den observation er jeg enig i med."
Hvis du er interesseret i at lære mere om AI på Qualcomms mobile platforme, anbefaler vi at læse vores interview fra sidste år med Gary Brotman. Du kan starte med del 1 af vores interview eller gå til del 2.
Al grafik vist i dette interview er hentet fra Gary Brotmans præsentation under Snapdragon Tech Summit. Du kan se slides her.