Како је Куалцомм направио огромна побољшања у АИ на Снапдрагон 865

Куалцомм је направио огромне скокове у АИ перформансама са новим Снапдрагон 865 СоЦ. Анализирамо промене које је Куалцомм направио да би убрзао машинско учење.

Чини се да не можемо проћи дан а да не видимо „вештачку интелигенцију“ у вестима, а ова прошла недеља није била изузетак у малом делу захваљујући Снапдрагон Тецх Суммиту. Сваке године, Куалцомм открива мноштво побољшања која доноси у свој Хекагон ДСП и Куалцомм АИ Енгине, термин који користе за целу своју хетерогену рачунарску платформу - ЦПУ, ГПУ и ДСП - када говоре о АИ оптерећења. Пре неколико година, Куалцомм-ово инсистирање да се разговор удаљи од традиционалних тачака разговора, као што су побољшања перформанси ЦПУ-а из године у годину, изгледало је помало чудно. Ипак, 2019. године и са Снапдрагон 865, видимо да је хетерогено рачунарство заиста на челу њиховог мобилног рачунарства, јер АИ и хардверски убрзана радна оптерећења изгледа да се ушуњају у широк спектар случајева коришћења и апликација, од друштвених медија до свакодневних услуге.

Снапдрагон 865 доноси Куалцомм-ов АИ мотор пете генерације, а са њим долазе и сочна побољшања перформанси и енергетске ефикасности - али то је за очекивати. У мору спецификација, бројки перформанси, отмјених инжењерских термина и заморних маркетиншких фраза, лако је изгубити из вида шта ова побољшања заправо значе. Шта они описују? Зашто су ове надоградње толико значајне за оне који данас примењују вештачку интелигенцију у својим апликацијама, и што је можда још важније, за оне који то желе да ураде у будућности?

У овом чланку ћемо кренути у приступачан, али детаљан обилазак Куалцомм АИ Енгине-а који прочешља његову историју, његове компоненте и надоградње Снапдрагон 865, и што је најважније, зашто или како сваки од њих је допринео данашњем искуству паметних телефона, од смешних филтера до дигиталних помоћника.

Хекагон ДСП и Куалцомм АИ Енгине: Када брендирање чини разлику

Иако нисам био у могућности да присуствујем овонедељном Снапдрагон Тецх Самиту, ипак сам присуствовао сваком другом од 2015. ако се сећате, то била је година врућег нереда који је био Снапдрагон 810, па су новинари у том поткровљу Челсија у Њујорку били жељни да сазнају како ће Снапдрагон 820 искупити компанију. И био је то одличан чипсет, у реду: обећавао је здрава побољшања перформанси (без икаквог пригушења) враћањем на тада испробана и права прилагођена језгра по којима је Куалцомм био познат. Ипак, сећам се и веома суптилне најаве којој је, гледајући уназад, требало посветити више пажње: друга генерација Хекагон 680 ДСП и његова појединачна инструкција, вишеструки подаци (СИМД) Хекагон Вецтор еКстенсионс, или ХВКС. Можда да инжењери нису дали име овој особини, она би добила пажњу коју заслужује.

Овај копроцесор омогућава хардверским нитима скаларне ДСП јединице да приступе ХВКС „контекстима“ (регистрационим датотекама) за широке могућности векторске обраде. Омогућио је пребацивање значајних рачунарских оптерећења са ЦПУ-а или ГПУ-а који су потребни за енергију на енергетски ефикасан ДСП тако да задаци снимања слика и компјутерског вида раде са знатно побољшаним перформансама по миливату. Савршени су за примену идентичних операција на суседним векторским елементима (првобитно само целим бројевима), што их чини добрим за радна оптерећења компјутерског вида. У прошлости смо написали детаљан чланак о ДСП-у и ХВКС-у, напомињући да је ХВКС архитектура добро подложна паралелизацији и, очигледно, обради великих улазних вектора. У то време, Куалцомм је промовисао и ДСП и ХВКС скоро искључиво описујући побољшања која су донео би радна оптерећења компјутерског вида као што су Харисов детектор угла и други клизни прозори методе.

Тек када је дошло до појаве дубоког учења у потрошачким мобилним апликацијама, ДСП, његов вектор процесорске јединице (а сада и тензорски акцелератор) би се удале за АИ и неуронске мреже, у посебно. Али гледајући уназад, има савршеног смисла: архитектура дигиталног процесора сигнала (ДСП), првобитно дизајнирана за руковање дигитализованим стварни или аналогни сигнални улази, подложан је многим истим оптерећењима као и многи алгоритми за машинско учење и неуронске мреже. На пример, ДСП-ови су скројени за језгра филтера, операције конволуције и корелације, 8-битне прорачуне, тону линеарне алгебре (векторски и матрични производи) и операције множења-акумулације (МАЦ), све најефикасније када паралелно. Време рада неуронске мреже такође у великој мери зависи од множења великих вектора, матрица и/или тензора, тако да сасвим је природно да се предности перформанси ДСП-а уредно преводе на архитектуре неуронских мрежа као добро. Укратко ћемо поново погледати ову тему!

У наредним годинама, Куалцомм је наставио да наглашава да не нуди само чипсета, али мобилне платформе, и да се не фокусирају само на побољшању одређених компоненти, али испоруку "хетерогеног" рачунања. У 2017. су објавили свој Снапдрагон Неурал Процессинг Енгине СДК (за убрзање времена рада) на Куалцомм Девелопер Нетворк, а почетком 2018. најавио Куалцомм Артифициал Интеллигенце Енгине да обједини неколико хардверских компоненти са АИ-ом (ЦПУ, ГПУ, ДСП) и софтверских компоненти под једним име. Са овом корисном номенклатуром, били су у могућности да уредно рекламирају своја побољшања АИ перформанси и на Снапдрагон 855 и на Снапдрагон 865, који може удобно да наведе број трилиона операција у секунди (ТОПС) и проценат у односу на претходну годину побољшања. Искориштавање генерацијских побољшања у ЦПУ-у, ГПУ-у и ДСП-у – сви они виде своју сопствену АИ фокусирану надоградње - компанија је у стању да постави импресивне стандарде у односу на конкуренте, које ћемо прећи ускоро. Са недавним маркетиншким напорима компаније и обједињеним, доследним порукама о хетерогеном рачунарству, њихов бренд АИ коначно добија на снази међу новинарима и технолошким ентузијастима.

Демистификација неуронских мрежа: обична гомила линеарне алгебре

Да бисмо раздвојили много жаргона на који ћемо наићи касније у чланку, потребан нам је кратак пример шта је неуронска мрежа и шта вам је потребно да бисте то учинили брже. Желим врло укратко да пређем на неке од математичких основа неуронских мрежа, избегавајући што је могуће више жаргона и нотације. Сврха овог одељка је једноставно да идентификује шта неуронска мрежа ради, у основи: аритметичке операције он извршава, а не теоријску основу која оправдава наведене операције (то је далеко компликованије!). Слободно пређите на следећи одељак ако желите да пређете директно на надоградње Куалцомм АИ Енгине-а.

„Векторска математика је основа дубоког учења.” – Травис Ланиер, виши директор управљања производима у Куалцомм-у на Снапдрагон Тецх Самиту 2017.

Испод ћете пронаћи веома типичан дијаграм потпуно повезане неуронске мреже са унапред унапријеђеним информацијама. У стварности, дијаграм чини да цео процес изгледа мало компликованије него што јесте (барем, док се не навикнете на њега). Израчунаћемо пролаз унапред, што је на крају оно што мрежа ради кад год произведе закључивање, термин са којим ћемо се сусрести и касније у чланку. Тренутно ћемо се бавити само машином и њеним деловима, уз кратка објашњења сваке компоненте.

Неуронска мрежа се састоји од секвенцијалних слојева, од којих се сваки састоји од неколико "неурона" (приказаних као кругови на дијаграму) повезаних помоћу тежине (приказано као линије на дијаграму). Уопштено говорећи, постоје три врсте слојева: улазни слој, који узима сирови улаз; скривених слојева, који израчунавају математичке операције из претходног слоја, и излазни слој, који даје коначна предвиђања. У овом случају имамо само један скривени слој, са три скривене јединице. Тхе улазни састоји се од вектора, низа или листе бројева одређене димензије или дужине. У примеру ћемо имати дводимензионални улаз, рецимо [1.0, -1.0]. Ево, излаз мреже се састоји од скаларног или појединачног броја (не листе). Свака скривена јединица је повезана са скупом тежине и а термин пристрасности, приказан поред и испод сваког чвора. За израчунавање пондерисана сума излаз јединице, свака тежина се множи са сваким одговарајућим улазом, а затим се производи сабирају. Затим ћемо једноставно додати термин пристрасности том збиру производа, што резултира излазом неурона. На пример, са нашим уносом од [1.0,-1.0], прва скривена јединица ће имати излаз од 1.0*0.3 + (-1.0) * 0.2 + 1.0 = 1.1. Једноставно, зар не?

Следећи корак у дијаграму представља ан активациона функција, и то је оно што ће нам омогућити да произведемо излазни вектор сваког скривеног слоја. У нашем случају користићемо веома популарне и изузетно једноставне исправљена линеарна јединица или РеЛУ, који ће узети улазни број и избацити или (и) нулу, ако је тај број негативан, или нула (ии) сам улазни број, ако је број позитиван. На пример, РеЛУ(-0,1) = 0, али РеЛУ(0.1) = 0.1. По узору на наш допринос као то пропагира кроз ту прву скривену јединицу, излаз 1.1 који смо израчунали би био прослеђен у функцију активације, дајући РеЛУ(1.1)=1.1. Излазни слој, у овом примеру, ће функционисати баш као скривена јединица: помножиће излазне податке скривених јединица у односу на његове тежине, а затим ће додати свој термин пристраности од 0.2. Последња функција активације, функција корака, претвориће позитивне улазе у 1, а негативне вредности у 0. Знајући како свака од операција у мрежи функционише, можемо да запишемо комплетно израчунавање нашег закључка на следећи начин:

То је све што постоји за наше израчунавање неуронске мреже унапред. Као што видите, операције се готово у потпуности састоје од производа и збира бројева. Наша активациона функција РеЛУ(к) се такође може врло лако имплементирати, на пример једноставним позивом мак (к, 0), тако да враћа к кад год је унос већи од 0, али у супротном враћа 0. Напоменути да корак (к) може се израчунати на сличан начин. Постоје многе компликованије функције активације, као што је сигмоидна функција или хиперболичка тангента, који укључује различите интерне прорачуне и боље одговара за различите сврхе. Још једна ствар коју већ можете да приметите је да и ми може паралелно да покреће прорачуне три скривене јединице и њихове РеЛУ апликације, пошто њихове вредности нису потребне у исто време све док не израчунамо њихову пондерисану суму на излазном чвору.

Али не морамо ту да станемо. Изнад можете видети исто израчунавање, али овај пут представљено операцијама матричног и векторског множења. Да бисмо дошли до ове репрезентације, „повећавамо“ наш улазни вектор додавањем 1.0 на њега (светлија нијанса), тако да када ставимо тежине и наше пристрасности (светлија нијанса) у матрици као што је приказано изнад, резултујуће множење даје исту скривену јединицу излази. Затим, можемо применити РеЛУ на излазни вектор, по елементима, а затим „повећати“ РеЛУ излаз да бисмо га помножили са тежинама и пристрасношћу нашег излазног слоја. Ова репрезентација у великој мери поједностављује бележење, пошто се параметри (тежине и предрасуде) целог скривеног слоја могу ставити под једну променљиву. Али што је најважније за нас, то јасно показује унутрашњи прорачуни мреже су у суштини матрично и векторско множење или тачкасти производи. С обзиром на то како се величина ових вектора и матрица скалира са димензионалношћу наших улаза и бројем параметара у нашој мрежи, већина времена извршавања ће се потрошити на вршење оваквих прорачуна. Гомила линеарне алгебре!

Наш пример играчке је, наравно, врло ограниченог обима. У пракси, савремени модели дубоког учења могу имати десетине ако не и стотине скривених слојева и милионе повезаних параметара. Уместо нашег дводимензионалног примера уноса вектора, они могу да приме векторе са хиљадама уноса, у различитим облицима, као што су матрице (попут једноканалних слика) или тензори (троканални РГБ слике). Такође ништа не спречава нашу матричну репрезентацију да истовремено узме више вектора улаза, додавањем редова нашем оригиналном улазу. Неуронске мреже такође могу да буду „ожичене“ другачије од наше неуронске мреже унапред, или да извршавају различите функције активације. Постоји огроман зоолошки врт мрежних архитектура и техника, али на крају, они углавном разбити на исте паралелне аритметичке операције које налазимо у нашем примеру играчке, само у много већој скали.

Визуелни пример конволуционих слојева који раде на тензору. (Кредит слике: Товардс Дата Сциенце)

На пример, популарни конволуционе неуронске мреже (ЦНН) о којима сте вероватно читали нису „потпуно повезани“ као наша лажна мрежа. „Тежине“ или параметри његовог скривеног конволуциони слојеви може се замислити као нека врста филтера, клизног прозора који се примењује секвенцијално на мале делове улаза као што је приказано изнад -- ова "конволуција" је заправо само производ клизних тачака! Ова процедура доводи до онога што се често назива а мапа обележја. Обједињавање слојева смањује величину улаза или излаза конволуционог слоја, израчунавањем максималне или просечне вредности малих закрпа слике. Остатак мреже се обично састоји од потпуно повезаних слојева, попут оних у нашем примеру, и активационих функција као што је РеЛУ. Ово се често користи за екстракцију обележја на сликама где мапе карактеристика раних конволуционих слојева могу да „открију“ обрасци као што су линије или ивице, а каснији слојеви могу открити компликованије карактеристике као што су лица или сложене облицима.

Све што је речено јесте строго ограничен на закључивање, или процена неуронске мреже након што су њени параметри пронађени обука што је много компликованији поступак. И опет, искључили смо многа објашњења. У стварности, свака од компоненти мреже је укључена за одређену сврху. На пример, они од вас који су проучавали линеарну алгебру могу то лако да примете и без нелинеарне активационе функције, наша мрежа се поједностављује на линеарни модел са врло ограниченим предвиђањем капацитет.

Надограђени АИ мотор на Снапдрагон 865 - резиме побољшања

Са овим практичним разумевањем компоненти неуронске мреже и њихових математичких операција, можемо почети да разумемо тачно зашто је хардверско убрзање толико важно. У последњем одељку можемо приметити да је паралелизација од виталног значаја за убрзавање мреже омогућава нам, на пример, да израчунамо неколико паралелних тачкастих производа који одговарају сваком неурону активирање. Сваки од ових тачкастих производа је сам по себи састављен од операција множења и сабирања бројева, обично са 8-битном прецизношћу у случају мобилних апликација, што се мора догодити што је брже могуће. АИ Енгине нуди различите компоненте за ослобађање од ових задатака у зависности од перформанси и енергетске ефикасности које је предузео програмер.

Дијаграм ЦНН-а за популарни скуп података МНИСТ, приказан на бини на овогодишњем Снапдрагон самиту. Јединица за векторску обраду је добра за потпуно повезане слојеве, као у нашем лажном примеру. У међувремену, процесор тензора рукује конволуционим слојевима и слојевима који обрађују вишеструко клизање кернела паралелно, као на дијаграму изнад, и сваки конволуциони слој би могао да даје многе засебне карактеристике мапе.

Прво, погледајмо ГПУ, о којем обично говоримо у контексту 3Д игара. Потрошачко тржиште видео игара је деценијама стимулисало развој хардвера за обраду графике, али зашто су ГПУ-ови толико важни за неуронске мреже? За почетак, они одједном прожваћу огромне листе 3Д координата врхова полигона да би пратили стање света у игри. ГПУ такође мора да изврши гигантске операције множења матрице да би конвертовао (или мапирао) ове 3Д координате на 2Д планарне координате на екрану, а такође рукују информацијама о боји пиксела у паралелно. Поврх свега, они нуде висок меморијски пропусни опсег за руковање огромним меморијским баферима за текстурне битмапе прекривене на геометрију у игрици. Његове предности у паралелизацији, пропусном опсегу меморије и резултирајућим могућностима линеарне алгебре одговарају захтевима за перформансе неуронских мрежа.

Адрено ГПУ линија стога има велику улогу у Куалцомм АИ Енгине-у, а на сцени је Куалцомм изјавио да ова ажурирана компонента у Снапдрагон 865 омогућава дупло више могућности са помичним зарезом и двоструко већи број ВРХОВА у поређењу са претходном генерацијом, што је изненађујуће с обзиром да су забележили само 25% повећање перформанси за графичко приказивање. Ипак, за ово издање, компанија се може похвалити а 50% повећање броја аритметичко-логичких јединица (АЛУ), иако као и обично, нису открили своје ГПУ фреквенције. Куалцомм је такође навео мешовиту прецизност упутства, што управо звучи: различита нумеричка прецизност у операцијама у једној методи рачунања.

Хекагон 698 ДСП је место где видимо огроман део побољшања перформанси које нуди Снапдрагон 865. Ове године, компанија није саопштила побољшања у својим ДСП векторским екстензијама (чије су перформансе учетворостручене у прошлогодишњих 855), нити њиховим скаларним јединицама. Међутим, примећују да су за Тенсор Аццелератор овог блока постигли четири пута ТОП у поређењу са верзијом представљеном прошле године у Хекагон 695 ДСП, а такође је у могућности да понуди 35% боља енергетска ефикасност. Ово је велика ствар с обзиром на преваленцију архитектура конволуционих неуронских мрежа у савременим случајевима употребе вештачке интелигенције у распону од детекције објеката слике до аутоматског препознавања говора. Као што је горе објашњено, операција конволуције у овим мрежама производи 2Д низ матричних излаза за сваки филтер, што значи да када се наслага заједно, излаз конволуционог слоја је 3Д низ или тензор.

Куалцомм је такође промовисао своје „нове и јединствене“ компресија пропусног опсега дубоког учења техника, која може очигледно компримирати податке без губитака за око 50%, заузврат померајући половину података и ослобађајући пропусни опсег за друге делове чипсета. Такође би требало да уштеди енергију смањењем протока података, иако нам нису дате никакве бројке и требало би да постоји мали трошак енергије за компресију података.

Што се тиче пропусног опсега, Снапдрагон 865 подржава ЛПДДР5 меморија, што ће такође имати користи од АИ перформанси јер ће повећати брзину преноса ресурса и улазних података. Осим хардвера, Куалцомм-ов нови Комплет алата за ефикасност модела АИ чини лаку компресију модела и резултирајућу уштеду енергије доступним програмерима. Неуронске мреже често имају велики број „сувишних“ параметара; на пример, могу да учине скривене слојеве ширим него што је потребно. Једна од карактеристика АИ Тоолкита о којој се расправља на сцени је тако компресија модела, при чему су две од наведених метода просторна сингуларна декомпозиција (СВД) и бајесова компресија, обе од који ефикасно скраћују неуронску мрежу тако што се ослобађају сувишних чворова и прилагођавају структуру модела као потребан. Друга техника компресије модела која је представљена на сцени односи се на квантизацију, а то укључује промену нумеричке прецизности параметара тежине и прорачуна активационог чвора.

Нумеричка прецизност тежина неуронске мреже односи се на то да ли се нумеричке вредности које се користе за израчунавање чувају, преносе и обрађују као вредности од 64, 32, 16 (полупрецизне) или 8-битне вредности. Коришћење ниже нумеричке прецизности (на пример, ИНТ8 наспрам ФП32) смањује укупну употребу меморије и брзине преноса података, омогућавајући већи пропусни опсег и брже закључивање. Многе данашње апликације за дубоко учење су прешле на 8-битне прецизне моделе ради закључивања, што би могло звучати изненађујуће: не би ли већа нумеричка тачност омогућила „тачнија“ предвиђања у класификацији или регресији задатака? Не нужно; већа нумеричка прецизност, посебно током закључивања, може бити изгубљена јер су неуронске мреже обучене да се носе са бучним улазима или ионако мале сметње током тренинга, а грешка на нижебитној репрезентацији дате (ФП) вредности је униформно „случајна“ довољно. У извесном смислу, ниска прецизност прорачуна се третира од стране мреже као још један извор буке, а предвиђања остају употребљива. Хеуристичка објашњења на страну, вероватно ћете добити казну за тачност када лоше квантујете модел без узимања у обзир неких важних разматрања, због чега много истраживања иде у предмет

Назад на Куалцомм АИ Тоолкит: Кроз њега они нуде квантизација без података, омогућавајући моделима да буду квантизовани без финог подешавања података или параметара, док се и даље постижу перформансе скоро оригиналног модела на различитим задацима. У суштини, прилагођава параметре тежине за квантизацију и исправља грешку пристрасности уведену приликом преласка на ниже прецизне тежине. С обзиром на предности квантизације, аутоматизација процедуре у оквиру АПИ позива би поједноставила производњу и примену модела, а Куалцомм тврди више од четири пута веће перформансе по вату када се покреће квантизовани модел.

Али опет, ово није шокантно: модели квантизације могу понудити огромне предности пропусног опсега и складиштења. Конвертовање модела у ИНТ8 не само да вам доноси 4к смањење пропусног опсега, већ и предност бржих целобројних израчунавања (у зависности од хардвера). Стога је сасвим јасно да би хардверски убрзани приступи и квантизацији и нумеричком прорачуну донели огроман напредак у перформансама. На његовом блогу, на пример, Гуглов Пете Варден је написао да сарадња између Куалцомм и Тенсорфлов тимова омогућава 8-битним моделима да раде до седам пута бржена ХВКС ДСП него на ЦПУ. Тешко је преценити потенцијал квантизације који се лако користи, посебно с обзиром на то како се Куалцомм фокусирао на ИНТ8 перформансе.

Крио ЦПУ Снапдрагон 865 заснован на АРМ-у је и даље важна компонента АИ мотора. Иако је хардверско убрзање о којем се говори у горњим параграфима пожељно, понекад ми не могу да избегну апликације које не користе правилно ове блокове, што доводи до ЦПУ-а повући се. У прошлости, АРМ је увео специфичне скупове инструкција које су имале за циљ да убрзају матричне и векторске прорачуне. У АРМв7 процесорима, видели смо увођење АРМ НЕОН-а, проширења СИМД архитектуре која омогућава инструкције сличне ДСП-у. А са микроархитектуром АРМв8.4-А, видели смо увођење инструкције посебно за тачкасте производе.

Сва ова објављена побољшања перформанси односе се на многа оптерећења која смо описали у претходном одељку, али такође вреди имати на уму да су ове надоградње Снапдрагон 865 само најновији побољшања у Куалцоммовим АИ могућностима. У 2017. смо документовали њихово утростручење АИ могућности са Хекагон 685 ДСП и другим ажурирањима чипсета. Прошле године су представили свој тензорски акцелератор и интегрисану подршку за нелинеарне функције (попут поменутог РеЛУ!) на хардверском нивоу. Такође су удвостручили број векторских акцелератора и побољшали перформансе скаларне процесорске јединице за 20%. Упарујући све ово са побољшањима на страни ЦПУ-а, попут оних бржих операција тачкастих производа захваљујући АРМ-у и додатних АЛУ-ова у ГПУ-у, Куалцомм на крају утростручио сирове АИ способности такође.

Практична добит и проширени случајеви употребе

Све ове надоградње довеле су до пет пута већих АИ могућности на Снапдрагон 865 у поређењу са пре само две године, али што је можда најважније, побољшања су такође дошла са бољим перформансама по миливату, што је критична метрика за мобилне уређаје уређаја. На Самиту Снапдрагон 2019, Куалцомм нам је дао неколико мерила упоређујући њихов АИ Енгине са два конкурента на различитим мрежама за класификацију. Чини се да ће се ове бројке прикупити коришћењем АИМарк-а, апликације за бенцхмаркинг на више платформи, која омогућава поређење са Аппле-овом А-серијом и Хуавеијевим ХиСилицон процесорима. Куалцомм тврди да ови резултати користе цео АИ Енгине и мораћемо да сачекамо још темељно бенцхмаркинг како би се правилно раздвојио ефекат сваке компоненте и утврдио како су ти тестови били спроведено. На пример, да ли резултати компаније Б указују на резервни ЦПУ? Колико ја знам, АИМарк тренутно не користи НПУ Кирин 990 на нашим Мате 30 Про јединицама, на пример. Али подржава Снапдрагон Неурал Процессинг Енгине, тако да ће сигурно искористити Куалцомм АИ Енгине; с обзиром да се ради о интерном тестирању, није изричито јасно да ли мерило успешности правилно користи праве библиотеке или СДК за своје конкуренте.

Такође се мора рећи да Куалцомм ефикасно упоређује могућности АИ процесора Снапдрагон 865 са претходно најављеним или објављеним чипсетима. Врло је вероватно да ће његови конкуренти донети побољшања перформанси на сличан начин у следећем циклусу, и ако је то У случају, онда би Куалцомм држао круну само око пола године од тренутка када Снапдрагон 865 уређаји дођу на полице. Међутим, ово је још увек индикативно за врсту неравнина које можемо очекивати од Снапдрагона 865. Куалцомм је генерално био веома прецизан када је саопштио побољшања перформанси и бенцхмарк резултате предстојећих издања.

Све мреже представљене у овим бенчмарковима класификују слике из база података као што је ИмагеНет, примају их као улазе и излазе једну од стотина категорија. Опет, они се ослањају на исте врсте операција које смо описали у другом одељку, иако је њихова архитектура много компликованији од ових примера и сматрани су најсавременијим решењима у време њиховог објављивања. У најбољем случају, њихов најближи конкурент даје мање од половине броја закључака у секунди.

Што се тиче потрошње енергије, Куалцомм је понудио закључке по вату како би приказао количину АИ обраде могуће у датој количини снаге. У најбољем случају (МобилеНет ССД), Снапдрагон АИ Енгине може понудити дупло већи број закључака под истим буџетом снаге.

Снага је посебно важна за мобилне уређаје. Замислите, на пример, Снапцхат филтер заснован на неуронској мрежи. Реално, систем компјутерског вида издваја информације о лицу и примењује маску или унос трансформација треба да се одвија само брзином од 30 или 60 завршетака у секунди да би се постигла течност искуство. Повећање сирових АИ перформанси би вам омогућило да узимате улазе веће резолуције и дајете филтере бољег изгледа, али би могло такође је боље да се задовољите ХД резолуцијом за брже отпремање и смањење потрошње енергије и термичког пригушења. У многим апликацијама, „брже“ није нужно „боље“, а онда се могу искористити предности побољшане енергетске ефикасности.

Током другог дана Снапдрагон самита, старији директор инжењеринга у Снапцхат-у Иурии Монастирсхин изашао је на бину да покаже како њихове најновије филтере засноване на дубоком учењу значајно убрзава Хекагон Дирецт НН користећи Хекагон 695 ДСП на Снапдрагон-у 865.

Поврх тога, пошто програмери добијају приступ лакшим имплементацијама неуронских мрежа и све више апликација почиње да користи технике вештачке интелигенције, случајеви истовремене употребе ће заузимати више пажње јер ће паметни телефон морати да ради са више паралелне АИ цевоводе одједном (било за једну апликацију која обрађује улазне сигнале из различитих извора или исто толико апликација ради одвојено на уређају). Док видимо респектабилне добитке у енергетској ефикасности у рачунарском ДСП-у, ГПУ-у и ЦПУ-у, Куалцомм Сенсинг Хуб обрађује увек укључене случајеве коришћења како би слушао речи окидача уз веома ниску потрошњу енергије. Омогућава праћење аудио, видео и сензорских извора при струји испод 1 мА, омогућавајући уређају да уочи одређене звучне знакове (као што је плач бебе), поврх познатих кључних речи дигиталног помоћника. С тим у вези, Снапдрагон 865 омогућава откривање не само кључне речи већ и ко је изговара, да се идентификује овлашћени корисник и поступи у складу са тим.

Више АИ на Едге уређајима

Ова побољшања се на крају могу превести у опипљиве предности за ваше корисничко искуство. Услуге које укључују превођење, препознавање и означавање објеката, предвиђања употребе или препоруке за ставке, Разумевање природног језика, рашчлањивање говора и тако даље ће имати користи од бржег рада и мање потрошње снага. Већи буџет за рачунарство такође омогућава креирање нових случајева коришћења и искустава и премештање процеса који су се некада одвијали у облаку на ваш уређај. Док је АИ као термин коришћен на сумњиве, обмањујуће, па чак и погрешне начине у прошлости (чак и од стране ОЕМ-а), многе ваше услуге у којима уживате данас се на крају ослањају на алгоритме машинског учења у неком облику или други.

Али осим Куалцомм-а, други произвођачи чипсета су брзо понављали и побољшавали се и на овом фронту. На пример, 990 5Г је донео дизајн језгра 2+1 НПУ, што је резултирало до 2,5 пута бољим перформансама у односу на Кирин 980 и двоструко бољим од Аппле А12. Када је процесор најављен, показало се да нуди до два пута више оквира (закључака) у секунди Снапдрагона 855 на ИНТ8 МобилеНет-у, што је тешко ускладити са резултатима које је обезбедио Куалцомм. Аппле А13 Биониц је, с друге стране, наводно понудио шест пута брже множење матрице у односу на свог претходника и побољшао дизајн свог осмојезгарног неуронског мотора. Мораћемо да сачекамо док не будемо могли правилно да тестирамо Снапдрагон 865 на комерцијалним уређајима у односу на његове тренутне и будуће конкуренте, али је јасно је да конкуренција у овом простору никада не мирује јер три компаније улажу тону ресурса у побољшање своје вештачке интелигенције перформансе.