Qualcomm-მა უზარმაზარი ნახტომი განიცადა ხელოვნური ინტელექტის შესრულებაში ახალი Snapdragon 865 SoC-ით. ჩვენ ვაანალიზებთ ცვლილებებს, რომლებიც Qualcomm-მა გააკეთა მანქანური სწავლების დასაჩქარებლად.
როგორც ჩანს, ჩვენ არ შეგვიძლია გავატაროთ დღე ისე, რომ არ დავინახოთ „ხელოვნური ინტელექტი“ ახალ ამბებში და გასული კვირაც არ იყო გამონაკლისი Snapdragon Tech Summit-ის წყალობით. ყოველწლიურად, Qualcomm ავლენს უამრავ გაუმჯობესებას, რომელსაც მოაქვს მისი Hexagon DSP და Qualcomm AI Engine. ტერმინი, რომელსაც ისინი იყენებენ თავიანთი ჰეტეროგენული გამოთვლითი პლატფორმისთვის - CPU, GPU და DSP - AI-ზე საუბრისას. დატვირთვები. რამდენიმე წლის წინ, Qualcomm-ის დაჟინებული მოთხოვნა საუბრის გადასატანად ტრადიციული სასაუბრო წერტილებისგან, როგორიცაა CPU-ის მუშაობის ყოველწლიური გაუმჯობესება, ცოტა უცნაური ჩანდა. მიუხედავად ამისა, 2019 წელს და Snapdragon 865-თან ერთად, ჩვენ ვხედავთ, რომ ჰეტეროგენული გამოთვლები ნამდვილად არის მათი მობილური გამოთვლითი ბიძგის სათავეში, როგორც AI. და ტექნიკით დაჩქარებული დატვირთვა, როგორც ჩანს, იპარება გამოყენების შემთხვევებისა და აპლიკაციების ფართო სპექტრში, სოციალური მედიიდან ყოველდღიურობამდე მომსახურება.
Snapdragon 865-ს მოაქვს Qualcomm-ის მე-5 თაობის AI ძრავა და მასთან ერთად წვნიანი გაუმჯობესებები შესრულებასა და ენერგიის ეფექტურობაში - მაგრამ ეს მოსალოდნელია. სპეციფიკაციების, შესრულების მაჩვენებლების, ლამაზი საინჟინრო ტერმინებისა და დამღლელი მარკეტინგული სიტყვების ზღვაში, ადვილია მხედველობიდან დავკარგოთ, რას ნიშნავს სინამდვილეში ეს გაუმჯობესებები. რას აღწერენ ისინი? რატომ არის ეს განახლებები ასე მნიშვნელოვანი მათთვის, ვინც ახორციელებს ხელოვნურ ინტელექტს დღეს მათ აპებში და, ალბათ, უფრო მნიშვნელოვანია, მათთვის, ვინც ამას მომავალში აპირებს?
ამ სტატიაში ჩვენ განვიხილავთ Qualcomm AI Engine-ს მისაწვდომ, მაგრამ საფუძვლიან ტურს მის ისტორიას, მის კომპონენტებს და Snapdragon 865-ის განახლებებს და რაც მთავარია, რატომ ან როგორ თითოეულმა მათგანმა წვლილი შეიტანა სმარტფონების დღევანდელ გამოცდილებაში, სასაცილო ფილტრებიდან ციფრულ ასისტენტებამდე.
ექვსკუთხა DSP და Qualcomm AI Engine: როდესაც ბრენდინგი განსხვავებას ქმნის
მიუხედავად იმისა, რომ მე ვერ დავესწარი ამ კვირის Snapdragon Tech Summit-ს, მე მაინც ვესწრები ყველა მეორეს 2015 წლიდან. თუ გახსოვთ, რომ იყო ცხელი არეულობის წელი, ეს იყო Snapdragon 810, და ამიტომ ჟურნალისტებს ჩელსის ლოფტში ნიუ-იორკში სურდათ გაეგოთ, თუ როგორ გამოისყიდდა Snapdragon 820 კომპანიას. და ეს იყო შესანიშნავი ჩიპსეტი, კარგი: ის გვპირდებოდა ჯანსაღი მუშაობის გაუმჯობესებას (არც ერთი შეფერხების გარეშე) დაბრუნებით იმ დროინდელ და ნამდვილ პერსონალურ ბირთვებზე, რომლებითაც Qualcomm იყო ცნობილი. მაგრამ მე ასევე მახსოვს ძალიან დახვეწილი განცხადება, რომელსაც, რეტროსპექტივაში, მეტი ყურადღება უნდა მიექცეს: მეორე თაობის Hexagon 680 DSP და მისი ერთი ინსტრუქცია, მრავალი მონაცემთა (SIMD) Hexagon Vector გაფართოებები, ან HVX. შესაძლოა, ინჟინრებს რომ არ დაესახელებინათ ეს ფუნქცია, ის მიიღებდა დამსახურებულ ყურადღებას.
ეს კოპროცესორი საშუალებას აძლევს სკალარული DSP ერთეულის აპარატურულ ძაფებს წვდომა ჰქონდეთ HVX „კონტექსტებზე“ (ფაილების რეგისტრაცია) ფართო ვექტორული დამუშავების შესაძლებლობებისთვის. ამან შესაძლებელი გახადა მნიშვნელოვანი გამოთვლითი დატვირთვის გადმოტვირთვა ენერგიის მშიერი CPU-დან ან GPU-დან. ენერგოეფექტური DSP, რათა გამოსახულების და კომპიუტერული ხედვის ამოცანები შესრულდეს არსებითად გაუმჯობესებული წარმადობით თითო მილივატზე. ისინი შესანიშნავია მიმდებარე ვექტორულ ელემენტებზე (თავდაპირველად მხოლოდ მთელ რიცხვებზე) იდენტური ოპერაციების გამოსაყენებლად, რაც მათ კარგ მორგებას ხდის კომპიუტერული ხედვის დატვირთვისთვის. წარსულში ჩვენ დავწერეთ სიღრმისეული სტატია DSP-სა და HVX-ზე, აღნიშნავს, რომ HVX არქიტექტურა კარგად ერგება პარალელიზებას და, ცხადია, დიდი შეყვანის ვექტორების დამუშავებას. იმ დროს Qualcomm-მა გაავრცელა ორივე DSP და HVX თითქმის ექსკლუზიურად მათი გაუმჯობესებების აღწერით. მოუტანს კომპიუტერულ ხედვას სამუშაო დატვირთვას, როგორიცაა ჰარისის კუთხის დეტექტორი და სხვა მოცურების ფანჯარა მეთოდები.
სამომხმარებლო მობილურ აპლიკაციებში ღრმა სწავლის დაწყებამდე არ იყო DSP, მისი ვექტორი გადამამუშავებელი ერთეულები (ახლა კი ტენზორული ამაჩქარებელი) დაქორწინდებიან AI-სა და ნერვულ ქსელებზე, კონკრეტული. მაგრამ უკან რომ გადავხედოთ, ეს სრულიად ლოგიკურია: ციფრული სიგნალის პროცესორის (DSP) არქიტექტურა, თავდაპირველად შექმნილია ციფრული გადამუშავებისთვის. რეალურ სამყაროში ან ანალოგური სიგნალის შეყვანა, ექვემდებარება ბევრ იგივე დატვირთვას, როგორც ბევრი მანქანური სწავლის ალგორითმი და ნერვული ქსელები. მაგალითად, DSP-ები მორგებულია ფილტრის ბირთვებისთვის, კონვოლუციისა და კორელაციის ოპერაციებისთვის, 8-ბიტიანი გამოთვლებისთვის, ტონა ხაზოვანი ალგებრა (ვექტორი და მატრიცული პროდუქტები) და გამრავლება-აკუმულაციის (MAC) ოპერაციები, ყველაზე ეფექტურია, როდესაც პარალელიზებული. ნერვული ქსელის მუშაობის დრო ასევე დიდად არის დამოკიდებული დიდი ვექტორების, მატრიცების და/ან ტენსორების გამრავლებაზე. ბუნებრივია, რომ DSP-ის შესრულების უპირატესობები ზუსტად ითარგმნება როგორც ნერვული ქსელის არქიტექტურაზე კარგად. მოკლედ გადავხედავთ ამ თემას!
მომდევნო წლებში Qualcomm-მა განაგრძო ხაზგასმით, რომ ისინი არ გვთავაზობენ უბრალოდ ჩიპსეტები, მაგრამ მობილური პლატფორმებიდა რომ ისინი ყურადღებას არ აქცევენ უბრალოდ კონკრეტული კომპონენტების გაუმჯობესებაზე, მაგრამ "ჰეტეროგენული" გამოთვლის მიწოდებაზე. 2017 წელს მათ გამოუშვეს Snapdragon Neural Processing Engine SDK (გაშვების დროის აჩქარებისთვის) Qualcomm Developer Network-ზე, ხოლო 2018 წლის დასაწყისში მათ გამოაცხადა Qualcomm ხელოვნური ინტელექტის ძრავა, რათა გააერთიანოს რამდენიმე ხელოვნური ინტელექტის მქონე ტექნიკის (CPU, GPU, DSP) და პროგრამული კომპონენტების ერთი ქვეშ. სახელი. ამ სასარგებლო ნომენკლატურით, მათ შეძლეს თავიანთი AI მუშაობის გაუმჯობესების რეკლამირება როგორც Snapdragon 855-ზე, ასევე. Snapdragon 865, რომელსაც შეუძლია კომფორტულად განსაზღვროს ტრილიონობით ოპერაციების რაოდენობა წამში (TOPS) და წლიური პროცენტი გაუმჯობესებები. CPU-ს, GPU-სა და DSP-ში თაობის გაუმჯობესების გამოყენება - ყველა მათგანი ხედავს საკუთარ AI-ზე ორიენტირებულს განახლებები - კომპანიას შეუძლია გამოაქვეყნოს შთამბეჭდავი კრიტერიუმები კონკურენტების წინააღმდეგ, რასაც ჩვენ გადავხედავთ ცოტა ხანში. კომპანიის ბოლოდროინდელი მარკეტინგული ძალისხმევის და ჰეტეროგენული გამოთვლის შესახებ ერთიანი, თანმიმდევრული შეტყობინებების გამო, მათი AI ბრენდი საბოლოოდ იძენს ყურადღებას ჟურნალისტებსა და ტექნიკურ ენთუზიასტებში.
ნერვული ქსელების დემისტიფიკაცია: ხაზოვანი ალგებრის ამქვეყნიური გროვა
ბევრი ჟარგონის გასაყოფად, რომელსაც მოგვიანებით შევხვდებით სტატიაში, გვჭირდება მოკლე პრაიმერი. რა არის ნერვული ქსელი და რაც გჭირდებათ რომ უფრო სწრაფად გააკეთოთ. ძალიან მოკლედ მინდა გადავხედო ნერვული ქსელების ზოგიერთ მათემატიკურ საფუძველს, რაც შეიძლება მეტი ჟარგონისა და აღნიშვნის თავიდან აცილება. ამ განყოფილების მიზანია უბრალოდ იმის დადგენა, თუ რას აკეთებს ნერვული ქსელი, ფუნდამენტურად: არითმეტიკული მოქმედებები ის ახორციელებს და არა თეორიულ საფუძველს, რომელიც ამართლებს აღნიშნულ ოპერაციებს (ეს ბევრად უფრო რთულია!). თავისუფლად გადადით შემდეგ განყოფილებაზე, თუ გსურთ პირდაპირ Qualcomm AI Engine-ის განახლებაზე გადასვლა.
ვექტორული მათემატიკა ღრმა სწავლის საფუძველია. - ტრევის ლანიერი, Qualcomm-ის პროდუქტის მენეჯმენტის უფროსი დირექტორი 2017 წლის Snapdragon Tech Summit-ზე
ქვემოთ თქვენ იხილავთ ძალიან ტიპურ მიწოდების სრულად დაკავშირებულ ნერვულ ქსელის დიაგრამას. სინამდვილეში, დიაგრამა მთელ პროცესს ცოტა უფრო რთულს ხდის, ვიდრე არის (ყოველ შემთხვევაში, სანამ არ შეეგუებით). ჩვენ გამოვთვლით წინ გადასასვლელს, რაც საბოლოო ჯამში არის ის, რასაც ქსელი აკეთებს, როდესაც ის აწარმოებს დასკვნა, ტერმინი, რომელსაც მოგვიანებით სტატიაშიც შევხვდებით. ამ დროისთვის ჩვენ მხოლოდ მანქანასა და მის ნაწილებს შევეხებით, თითოეული კომპონენტის მოკლე ახსნა-განმარტებით.
ნერვული ქსელი შედგება თანმიმდევრული ფენები, თითოეული შედგება რამდენიმე "ნეირონისგან" (დიაგრამაზე გამოსახული წრეების სახით), რომლებიც დაკავშირებულია წონები (გამოსახულია ხაზების სახით დიაგრამაზე). ზოგადად, არსებობს სამი სახის ფენა: შეყვანის ფენა, რომელიც იღებს ნედლეულ შეყვანას; ფარული ფენები, რომელიც გამოთვლის მათემატიკურ ოპერაციებს წინა ფენიდან და გამომავალი ფენა, რომელიც იძლევა საბოლოო პროგნოზებს. ამ შემთხვევაში, ჩვენ გვაქვს მხოლოდ ერთი ფარული ფენა, სამი ფარული ერთეულები. The შეყვანა შედგება ვექტორის, მასივის ან კონკრეტული განზომილების ან სიგრძის რიცხვების სიისგან. მაგალითში გვექნება ორგანზომილებიანი შეყვანა, ვთქვათ [1.0, -1.0]. აი, გამომავალი ქსელი შედგება სკალარული ან ერთი ნომრისგან (არა სიისგან). თითოეული ფარული ერთეული ასოცირდება კომპლექტთან წონები და ა მიკერძოების ტერმინი, ნაჩვენებია თითოეული კვანძის გვერდით და ქვემოთ. რომ გამოვთვალოთ შეწონილი ჯამი ერთეულის გამომავალი, თითოეული წონა მრავლდება თითოეულ შესაბამის შეყვანაზე და შემდეგ პროდუქტებს ემატება. შემდეგ, ჩვენ უბრალოდ დავამატებთ მიკერძოებულ ტერმინს პროდუქტთა ჯამს, რაც გამოიწვევს ნეირონის გამომუშავებას. მაგალითად, ჩვენი შეყვანით [1.0,-1.0], პირველ ფარულ ერთეულს ექნება გამომავალი 1.0*0.3 + (-1.0) * 0.2 + 1.0 = 1.1. მარტივი, არა?
შემდეგი ნაბიჯი დიაგრამაში წარმოადგენს გააქტიურების ფუნქცია, და არის ის, რაც მოგვცემს საშუალებას შევქმნათ თითოეული ფარული ფენის გამომავალი ვექტორი. ჩვენს შემთხვევაში, ჩვენ გამოვიყენებთ ძალიან პოპულარულ და ძალიან მარტივს გამოსწორებული ხაზოვანი ერთეული ან ReLU, რომელიც მიიღებს შეყვანის რიცხვს და გამოსცემს ან (i) ნულს, თუ ეს რიცხვი უარყოფითია ან ნულოვანი (ii) თავად შეყვანის რიცხვი, თუ რიცხვი დადებითია. Მაგალითად, ReLU(-0.1) = 0, მაგრამ ReLU(0.1) = 0.1. ჩვენი შეყვანის მაგალითის შემდეგ ავრცელებს ამ პირველი ფარული ერთეულის მეშვეობით, 1.1-ის გამომავალი, რომელიც ჩვენ გამოვთვალეთ, გადაიცემა აქტივაციის ფუნქციაში, რაც იძლევა ReLU(1.1)=1.1. გამომავალი ფენა, ამ მაგალითში, იფუნქციონირებს ისევე, როგორც ფარული ერთეული: ის გაამრავლებს ფარული ერთეულების გამოსავალს მის წონაზე და შემდეგ დაამატებს მის მიკერძოებულ ტერმინს. 0.2. ბოლო გააქტიურების ფუნქცია, ნაბიჯის ფუნქცია, დადებით შეყვანებს გადააქცევს 1-ად და უარყოფით მნიშვნელობებს 0-ად. იმის ცოდნა, თუ როგორ მუშაობს ქსელში თითოეული ოპერაცია, ჩვენ შეგვიძლია ჩამოვწეროთ ჩვენი დასკვნის სრული გამოთვლა შემდეგნაირად:
ეს არის ყველაფერი, რაც არის ჩვენი უკუკავშირის ნერვული ქსელის გამოთვლა. როგორც ხედავთ, ოპერაციები თითქმის მთლიანად შედგება პროდუქტებისა და რიცხვების ჯამებისგან. ჩვენი აქტივაციის ფუნქცია ReLU (x) შეიძლება განხორციელდეს ძალიან მარტივად, მაგალითად, უბრალოდ დარეკვით მაქსიმალური (x, 0), ისე, რომ ის აბრუნებს x-ს, როდესაც შეყვანა 0-ზე მეტია, მაგრამ სხვაგვარად აბრუნებს 0-ს. Გაითვალისწინე ნაბიჯი (x) შეიძლება გამოითვალოს ანალოგიურად. არსებობს მრავალი უფრო რთული აქტივაციის ფუნქცია, როგორიცაა სიგმოიდური ფუნქცია ან ჰიპერბოლური ტანგენსი, რომელიც მოიცავს სხვადასხვა შიდა გამოთვლებს და უკეთესია სხვადასხვა მიზნებისთვის. კიდევ ერთი რამ, რაც უკვე შეგიძლიათ შეამჩნიოთ, არის ის, რომ ჩვენ ასევე შეუძლია სამი ფარული ერთეულის გამოთვლები და მათი ReLU აპლიკაციების პარალელურად გაშვება, რადგან მათი მნიშვნელობები არ არის საჭირო ერთდროულად, სანამ არ გამოვთვლით მათ შეწონილ ჯამს გამომავალ კვანძში.
მაგრამ ჩვენ არ უნდა გავჩერდეთ. ზემოთ, შეგიძლიათ იხილოთ იგივე გამოთვლა, მაგრამ ამჯერად წარმოდგენილია მატრიცის და ვექტორული გამრავლების ოპერაციებით. ამ წარმოდგენამდე მისასვლელად, ჩვენ „ვზრდით“ ჩვენს შეყვანის ვექტორს 1.0-ის დამატებით (უფრო ღია ელფერით), ისე, რომ როდესაც ჩვენ ვაყენებთ წონა და ჩვენი მიკერძოება (უფრო ღია ელფერი) მატრიცაში, როგორც ზემოთ არის ნაჩვენები, შედეგად გამრავლება იძლევა იმავე ფარულ ერთეულს გამოსავლები. შემდეგ, ჩვენ შეგვიძლია გამოვიყენოთ ReLU გამომავალი ვექტორზე, ელემენტების მიხედვით, და შემდეგ „გავაძლიეროთ“ ReLU გამომავალი, რომ გავამრავლოთ იგი ჩვენი გამომავალი ფენის წონებზე და მიკერძოებულზე. ეს წარმოდგენა მნიშვნელოვნად ამარტივებს აღნიშვნას, რადგან მთელი ფარული ფენის პარამეტრები (წონა და მიკერძოება) შეიძლება მოთავსდეს ერთი ცვლადის ქვეშ. მაგრამ რაც მთავარია ჩვენთვის, ცხადყოფს, რომ ქსელის შიდა გამოთვლები არსებითად არის მატრიცული და ვექტორული გამრავლება ან წერტილოვანი პროდუქტები. იმის გათვალისწინებით, თუ როგორ სკალდება ამ ვექტორებისა და მატრიცების ზომა ჩვენი შეყვანის განზომილებასთან და ჩვენს ქსელში არსებული პარამეტრების რაოდენობასთან, მუშაობის დროის უმეტესი ნაწილი დაიხარჯება ამ სახის გამოთვლების შესრულებაზე. წრფივი ალგებრას თაიგული!
ჩვენი სათამაშო მაგალითია, რა თქმა უნდა, ძალიან შეზღუდული მასშტაბით. პრაქტიკაში, ღრმა სწავლის თანამედროვე მოდელებს შეიძლება ჰქონდეთ ათობით თუ არა ასობით ფარული ფენა და მილიონობით დაკავშირებული პარამეტრი. ჩვენი ორგანზომილებიანი ვექტორის შეყვანის მაგალითის ნაცვლად, მათ შეუძლიათ მიიღონ ვექტორები ათასობით ჩანაწერით, სხვადასხვა ფორმებში, როგორიცაა მატრიცები (როგორიცაა ერთარხიანი სურათები) ან ტენსორები (სამარხიანი RGB სურათები). ასევე არაფერი უშლის ხელს ჩვენს მატრიცის წარმოდგენას ერთდროულად რამდენიმე შეყვანის ვექტორების მიღებაში, ჩვენს თავდაპირველ შეყვანაში რიგების დამატებით. ნერვული ქსელები ასევე შეიძლება იყოს "სადენიანი" განსხვავებულად, ვიდრე ჩვენი მიმავალი ნერვული ქსელი, ან შეასრულონ სხვადასხვა აქტივაციის ფუნქციები. არსებობს ქსელის არქიტექტურისა და ტექნიკის უზარმაზარი ზოოპარკი, მაგრამ საბოლოოდ ისინი ძირითადად იშლება იმავე პარალელური არითმეტიკული ოპერაციებით, რასაც ჩვენ ვპოულობთ ჩვენს სათამაშო მაგალითში, უფრო დიდი მასშტაბით.
კონვოლუციის ფენების ვიზუალური მაგალითი, რომლებიც მოქმედებენ ტენზორზე. (სურათის კრედიტი: მონაცემთა მეცნიერების მიმართ)
მაგალითად, პოპულარული კონვოლუციური ნერვული ქსელები (CNN) რომლებზეც ალბათ წაიკითხეთ, არ არიან „სრულად დაკავშირებული“, როგორც ჩვენი იმიტირებული ქსელი. მისი ფარული "წონები" ან პარამეტრები კონვოლუციური ფენები შეიძლება მივიჩნიოთ, როგორც ერთგვარი ფილტრი, მოცურების ფანჯარა, რომელიც გამოიყენება თანმიმდევრულად შეყვანის მცირე ნაწილებზე, როგორც ეს ზემოთ არის ნაჩვენები -- ეს "კონვოლუცია" ნამდვილად არის მხოლოდ მოცურების წერტილის პროდუქტი! ეს პროცედურა იწვევს იმას, რასაც ხშირად ა მხატვრული რუკა. გაერთიანებული ფენები ამცირებენ შეყვანის ან კონვოლუციური ფენის გამომავალი ზომას გამოსახულების მცირე ნაწილაკების მაქსიმალური ან საშუალო მნიშვნელობის გამოთვლით. ქსელის დანარჩენი ნაწილი, როგორც წესი, შედგება სრულად დაკავშირებული შრეებისგან, როგორიცაა ჩვენს მაგალითში და აქტივაციის ფუნქციები, როგორიცაა ReLU. ეს ხშირად გამოიყენება მახასიათებლის ამოსაღებად იმ სურათებში, სადაც ადრეული კონვოლუციური ფენების მახასიათებლების რუქებს შეუძლიათ "აღმოაჩინონ" შაბლონებს, როგორიცაა ხაზები ან კიდეები, და მოგვიანებით შრეები, შეუძლიათ აღმოაჩინონ უფრო რთული მახასიათებლები, როგორიცაა სახეები ან რთული ფორმები.
ყველაფერი რაც ითქვა არის მკაცრად შემოიფარგლება დასკვნამდე, ან ნერვული ქსელის შეფასება მისი პარამეტრების აღმოჩენის შემდეგ ტრენინგი რაც ბევრად უფრო რთული პროცედურაა. და კიდევ, ჩვენ გამოვრიცხეთ ბევრი ახსნა. სინამდვილეში, ქსელის თითოეული კომპონენტი შედის გარკვეული მიზნით. მაგალითად, მათ, ვინც შეისწავლა ხაზოვანი ალგებრა, შეგიძლიათ მარტივად დააკვირდეთ ამას არაწრფივი აქტივაციის ფუნქციები, ჩვენი ქსელი ამარტივებს ხაზოვან მოდელს ძალიან შეზღუდული პროგნოზირებით ტევადობა.
განახლებული AI ძრავა Snapdragon 865-ზე - გაუმჯობესებების შეჯამება
ნერვული ქსელის კომპონენტებისა და მათი მათემატიკური ოპერაციების ამ მოსახერხებელი გაგებით, ჩვენ შეგვიძლია ზუსტად გავიგოთ, რატომ არის ტექნიკის აჩქარება ასე მნიშვნელოვანი. ბოლო განყოფილებაში შეგვიძლია დავაკვირდეთ, რომ პარალელიზება სასიცოცხლოდ მნიშვნელოვანია ქსელის დაჩქარებისთვის საშუალებას გვაძლევს, მაგალითად, გამოვთვალოთ რამდენიმე პარალელური წერტილი-პროდუქტი, რომლებიც შეესაბამება თითოეულ ნეირონს გააქტიურება. თითოეული ეს წერტილი-პროდუქტი თავისთავად შედგება რიცხვებზე გამრავლება-დამატების ოპერაციებისგან, ჩვეულებრივ 8-ბიტიანი სიზუსტით მობილური აპლიკაციების შემთხვევაში, რაც უნდა მოხდეს რაც შეიძლება სწრაფად. AI Engine გთავაზობთ სხვადასხვა კომპონენტს ამ ამოცანების გადატვირთვისთვის, რაც დამოკიდებულია დეველოპერის მუშაობის და ენერგიის ეფექტურობის მოსაზრებებზე.
CNN-ის დიაგრამა პოპულარული MNIST მონაცემთა ნაკრებისთვის, რომელიც ნაჩვენებია სცენაზე წლევანდელ Snapdragon Summit-ზე. ვექტორის დამუშავების განყოფილება კარგად ერგება სრულად დაკავშირებულ ფენებს, როგორც ჩვენს იმიტირებულ მაგალითში. იმავდროულად, ტენზორული პროცესორი ამუშავებს კონვოლუციურ და გაერთიანებულ ფენებს, რომლებიც ამუშავებენ მრავალჯერად სრიალს. ბირთვები პარალელურად, ისევე როგორც ზემოთ მოცემულ დიაგრამაში, და თითოეულმა კონვოლუციურმა ფენამ შეიძლება გამოიტანოს მრავალი ცალკეული ფუნქცია რუკები.
პირველ რიგში, მოდით შევხედოთ GPU-ს, რომელზეც ჩვეულებრივ ვსაუბრობთ 3D თამაშების კონტექსტში. ვიდეო თამაშების სამომხმარებლო ბაზარი ათწლეულების განმავლობაში ხელს უწყობს გრაფიკული დამუშავების ტექნიკის განვითარებას, მაგრამ რატომ არის GPU ასე მნიშვნელოვანი ნერვული ქსელებისთვის? დასაწყისისთვის, ისინი ერთდროულად ღეჭავენ მრავალკუთხედის წვეროების 3D კოორდინატების მასიურ სიებს, რათა თვალყური ადევნონ თამაშში არსებულ მსოფლიო მდგომარეობას. GPU-მ ასევე უნდა შეასრულოს გიგანტური მატრიცის გამრავლების ოპერაციები ამ 3D-ის გადასაყვანად (ან რუკაზე). კოორდინაციას უწევს 2D სიბრტყეზე, ეკრანის კოორდინატებზე და ასევე ამუშავებს პიქსელების ფერის ინფორმაციას პარალელურად. ამ ყველაფრის დასასრულებლად, ისინი გვთავაზობენ მეხსიერების მაღალ სიჩქარეს, რათა გაუმკლავდეს მეხსიერების მასიურ ბუფერებს ფაქტურის ბიტმაფებისთვის, რომლებიც გადაფარებულია თამაშის გეომეტრიაში. მისი უპირატესობები პარალელიზებაში, მეხსიერების გამტარუნარიანობაში და შედეგად მიღებული ხაზოვანი ალგებრის შესაძლებლობები შეესაბამება ნერვული ქსელების მუშაობის მოთხოვნებს.
ამგვარად, Adreno GPU ხაზს აქვს დიდი როლი Qualcomm AI Engine-ში და სცენაზე Qualcomm-მა განაცხადა, რომ ეს განახლებული კომპონენტი Snapdragon 865-ში იძლევა საშუალებას ორჯერ მეტი მცურავი წერტილის შესაძლებლობები და ორჯერ მეტი ტოპების რაოდენობა წინა თაობასთან შედარებით, რაც გასაკვირია იმის გათვალისწინებით, რომ მათ განათავსეს მხოლოდ 25% შესრულების ამაღლება გრაფიკული რენდერისთვის. მიუხედავად ამისა, ამ გამოშვებისთვის კომპანია ამაყობს ა არითმეტიკული ლოგიკური ერთეულების (ALU) რაოდენობის 50%-იანი ზრდა, თუმცა ჩვეულებისამებრ, მათ არ გაამჟღავნეს GPU სიხშირეები. Qualcomm ასევე ჩამოთვლილია შერეული სიზუსტით ინსტრუქციები, რაც ზუსტად ასე ჟღერს: განსხვავებული რიცხვითი სიზუსტე ოპერაციებში ერთი გამოთვლითი მეთოდით.
Hexagon 698 DSP არის ადგილი, სადაც ჩვენ ვხედავთ Snapdragon 865-ის მიერ შემოთავაზებული შესრულების მიღწევების უზარმაზარ ნაწილს. წელს, კომპანიას არ უთქვამს გაუმჯობესებები DSP-ის ვექტორულ გაფართოებებში (რომლის შესრულება ოთხჯერ გაიზარდა შარშანდელ 855-ში) და არც მათ სკალარული ერთეულები. თუმცა, ისინი აღნიშნავენ, რომ ამ ბლოკის ტენსორის ამაჩქარებლისთვის მათ მიაღწიეს ოთხჯერ TOPs ვერსიასთან შედარებით, რომელიც გასულ წელს იქნა წარმოდგენილი Hexagon 695 DSP-ში, ასევე შეუძლია შეთავაზება 35%-ით უკეთესი ენერგოეფექტურობა. ეს დიდი საკითხია კონვოლუციური ნერვული ქსელის არქიტექტურის გავრცელების გათვალისწინებით, თანამედროვე ხელოვნური ინტელექტის გამოყენების შემთხვევებში, დაწყებული გამოსახულების ობიექტების ამოცნობიდან დაწყებული მეტყველების ავტომატური ამოცნობით. როგორც ზემოთ ავხსენით, ამ ქსელებში კონვოლუციის ოპერაცია აწარმოებს მატრიცის გამომავლების 2D მასივს თითოეული ფილტრი, რაც იმას ნიშნავს, რომ ერთად დაწყობისას, კონვოლუციური ფენის გამომავალი არის 3D მასივი ან ტენსორი.
Qualcomm-მა ასევე გაავრცელა თავისი "ახალი და უნიკალური" ღრმა სწავლის გამტარუნარიანობის შეკუმშვა ტექნიკა, რომელსაც აშკარად შეუძლია შეკუმშოს მონაცემები უდანაკარგოდ დაახლოებით 50%-ით, თავის მხრივ გადააქვთ მონაცემების ნახევარი და ათავისუფლებს გამტარუნარიანობას ჩიპსეტის სხვა ნაწილებისთვის. მან ასევე უნდა დაზოგოს ენერგია ამ მონაცემთა გამტარუნარიანობის შემცირებით, თუმცა ჩვენ არ მოგვცეს რაიმე ფიგურა და ასევე უნდა იყოს მცირე ენერგიის ღირებულება მონაცემთა შეკუმშვისთვის.
გამტარუნარიანობის თემაზე, Snapdragon 865 მხარს უჭერს LPDDR5 მეხსიერება, რაც ასევე სარგებელს მოუტანს AI-ს შესრულებას, რადგან გაზრდის რესურსების და შეყვანის მონაცემების გადაცემის სიჩქარეს. ტექნიკის მიღმა, Qualcomm-ის ახალი AI Model Efficiency Toolkit დეველოპერებისთვის ხელმისაწვდომს ხდის მოდელის მარტივად შეკუმშვას და შედეგად ენერგიის ეფექტურობის დაზოგვას. ნერვულ ქსელებს ხშირად აქვთ „ზედმეტი“ პარამეტრების დიდი რაოდენობა; მაგალითად, მათ შეუძლიათ ფარული ფენები უფრო ფართო გახადონ, ვიდრე საჭიროა. სცენაზე განხილული AI Toolkit-ის ერთ-ერთი მახასიათებელი ასეა მოდელის შეკუმშვა, ორი ციტირებული მეთოდით არის სივრცითი სინგულარული მნიშვნელობის დაშლა (SVD) და ბაიესის შეკუმშვა, ორივე რომლებიც ეფექტურად ჭრიან ნერვულ ქსელს ზედმეტი კვანძების მოშორებით და მოდელის სტრუქტურის რეგულირებით, როგორც საჭირო. სცენაზე წარმოდგენილი სხვა მოდელის შეკუმშვის ტექნიკა ეხება კვანტიზაციას, რომელიც გულისხმობს წონის პარამეტრების რიცხვითი სიზუსტის შეცვლას და აქტივაციის კვანძის გამოთვლებს.
ნერვული ქსელის წონების რიცხვითი სიზუსტე ეხება იმას, არის თუ არა გამოთვლებისთვის გამოყენებული რიცხვითი მნიშვნელობები შენახული, გადაცემული და დამუშავებული 64, 32, 16 (ნახევრად სიზუსტე) ან 8 ბიტიანი მნიშვნელობებით. დაბალი რიცხვითი სიზუსტის გამოყენება (მაგალითად, INT8 FP32-ის წინააღმდეგ) ამცირებს საერთო მეხსიერების გამოყენებას და მონაცემთა გადაცემის სიჩქარეს, რაც საშუალებას იძლევა უფრო მაღალი გამტარუნარიანობა და უფრო სწრაფი დასკვნები. დღევანდელი ღრმა სწავლების ბევრი აპლიკაცია გადავიდა 8-ბიტიან სიზუსტეზე დასკვნისთვის, რაც შეიძლება ჟღერდეს გასაკვირია: უფრო მაღალი რიცხვითი სიზუსტე არ იძლევა უფრო "ზუსტ" პროგნოზებს კლასიფიკაციაში ან რეგრესიაში დავალებები? Არ არის აუცილებელი; უფრო მაღალი რიცხვითი სიზუსტე, განსაკუთრებით დასკვნის დროს, შეიძლება დაიკარგოს, რადგან ნერვული ქსელები გაწვრთნიან ხმაურიან შეყვანასთან ან მცირე დარღვევები მაინც ვარჯიშის განმავლობაში, და შეცდომა მოცემული (FP) მნიშვნელობის ქვედა ბიტიანი წარმოდგენის შესახებ არის ერთნაირად „შემთხვევითი“ საკმარისი. გარკვეული გაგებით, გამოთვლების დაბალი სიზუსტე განიხილება ქსელის მიერ, როგორც ხმაურის კიდევ ერთი წყარო, და პროგნოზები რჩება გამოსაყენებლად. ევრისტიკული ახსნა-განმარტების გარდა, სავარაუდოა, რომ თქვენ დაგერიცხებათ სიზუსტის ჯარიმა მოდელის უაზრო კვანტიზაციისას ზოგიერთი მნიშვნელოვანი მოსაზრებების გათვალისწინების გარეშე, რის გამოც ბევრი კვლევა მიმდინარეობს საგანი
დაუბრუნდით Qualcomm AI Toolkit-ს: მათ სთავაზობენ მის მეშვეობით მონაცემთა თავისუფალი კვანტიზაცია, რაც საშუალებას აძლევს მოდელების კვანტიზაციას მონაცემთა ან პარამეტრის დაზუსტების გარეშე, მიუხედავად იმისა, რომ მიღწეულია მოდელის თითქმის ორიგინალური შესრულება სხვადასხვა ამოცანებზე. არსებითად, ის ადაპტირებს წონის პარამეტრებს კვანტიზაციისთვის და ასწორებს მიკერძოებულ შეცდომას, რომელიც დაშვებულია დაბალი სიზუსტის წონაზე გადასვლისას. კვანტიზაციის შედეგად მიღებული სარგებლის გათვალისწინებით, API გამოძახებით პროცედურის ავტომატიზაცია გაამარტივებს მოდელის წარმოებას და დანერგვას და Qualcomm-ის პრეტენზიებს ოთხჯერ მეტი შესრულება თითო ვატზე კვანტური მოდელის გაშვებისას.
მაგრამ კიდევ ერთხელ, ეს არ არის შოკისმომგვრელი: კვანტურ მოდელებს შეუძლიათ შესთავაზონ გამტარუნარიანობის და შენახვის უზარმაზარი უპირატესობები. მოდელის INT8-ად კონვერტაცია არა მხოლოდ მოგცემთ 4-ჯერ შემცირებას გამტარუნარიანობას, არამედ უფრო სწრაფი მთელი რიცხვების გამოთვლების სარგებელს (დამოკიდებულია აპარატურაზე). მაშასადამე, უაზროა, რომ ტექნიკით დაჩქარებული მიდგომები როგორც კვანტიზაციის, ასევე რიცხვითი გამოთვლების მიმართ გამოიღებს მუშაობის მასიურ მიღწევებს. მის ბლოგზემაგალითად, Google-ის პიტ უორდენმა დაწერა, რომ Qualcomm და Tensorflow გუნდებს შორის თანამშრომლობა საშუალებას აძლევს 8-ბიტიან მოდელებს გაუშვან შვიდჯერ უფრო სწრაფადHVX DSP-ზე ვიდრე CPU-ზე. ძნელია ადვილად გამოსაყენებელი კვანტიზაციის პოტენციალის გადაჭარბება, განსაკუთრებით იმის გათვალისწინებით, თუ როგორ აკეთებს Qualcomm-მა INT8 შესრულებაზე ფოკუსირება.
Snapdragon 865-ის ARM-ზე დაფუძნებული Kryo CPU კვლავ AI ძრავის მნიშვნელოვანი კომპონენტია. მიუხედავად იმისა, რომ ზემოთ პუნქტებში განხილული ტექნიკის აჩქარება სასურველია, ზოგჯერ ჩვენ ვერ აიცილებს აპლიკაციებს, რომლებიც სათანადოდ არ სარგებლობენ ამ ბლოკებით, რაც იწვევს CPU-ს სარეზერვო. წარსულში ARM-მა შემოიტანა სპეციალური ინსტრუქციების ნაკრები, რომელიც მიზნად ისახავდა მატრიცებზე და ვექტორებზე დაფუძნებული გამოთვლების დაჩქარებას. ARMv7 პროცესორებში ჩვენ ვნახეთ ARM NEON-ის შემოღება, SIMD არქიტექტურის გაფართოება, რომელიც იძლევა DSP-ის მსგავს ინსტრუქციებს. და ARMv8.4-A მიკროარქიტექტურით, ჩვენ ვნახეთ ინსტრუქციის დანერგვა სპეციალურად წერტილოვანი პროდუქტებისთვის.
ყველა ეს გამოქვეყნებული ეფექტურობა დაკავშირებულია ბევრ სამუშაო დატვირთვასთან, რომელიც ჩვენ აღვწერეთ წინა ნაწილში, მაგრამ ასევე უნდა გვახსოვდეს, რომ ეს Snapdragon 865 განახლებებია მხოლოდ უახლესი Qualcomm-ის AI შესაძლებლობების გაუმჯობესება. 2017 წელს ჩვენ დავაფიქსირეთ მათი გასამმაგებული AI შესაძლებლობები Hexagon 685 DSP და სხვა ჩიპსეტის განახლებებით. გასულ წელს მათ წარმოადგინეს ტენზორული ამაჩქარებელი და ინტეგრირებული მხარდაჭერა არაწრფივი ფუნქციებისთვის (როგორც ზემოაღნიშნული ReLU!) ტექნიკის დონეზე. მათ ასევე გააორმაგეს ვექტორული ამაჩქარებლების რაოდენობა და გააუმჯობესეს სკალარული დამუშავების ერთეულის მუშაობა 20%-ით. ამ ყველაფრის დაწყვილება პროცესორის მხარეს გაუმჯობესებებთან, როგორიცაა ARM-ის უფრო სწრაფი წერტილოვანი პროდუქტის ოპერაციები და დამატებითი ALU-ები GPU-ში, საბოლოოდ Qualcomm გასამმაგდა ნედლეული AI შესაძლებლობებიც.
პრაქტიკული მოგება და გაფართოებული გამოყენების შემთხვევები
ყველა ეს განახლება ხუთჯერ აღემატება AI შესაძლებლობებს Snapdragon 865-ზე მხოლოდ ორი წლის წინანდელთან შედარებით, მაგრამ შესაძლოა, რაც მთავარია, გაუმჯობესებებს მოჰყვა უკეთესი შესრულება თითო მილივატზე, კრიტიკული მეტრიკა მობილურისთვის მოწყობილობები. 2019 წლის Snapdragon Summit-ზე Qualcomm-მა მოგვცა რამდენიმე საორიენტაციო ნიშანი, რომელიც ადარებს მათ AI Engine ორ კონკურენტს სხვადასხვა კლასიფიკაციის ქსელში. როგორც ჩანს, ეს მაჩვენებლები უნდა შეგროვდეს AIMark-ის, კროს-პლატფორმული ბენჩმარკინგის აპლიკაციის გამოყენებით, რომელიც შესაძლებელს ხდის შედარებას Apple-ის A-სერიის და Huawei-ს HiSilicon პროცესორებთან. Qualcomm ირწმუნება, რომ ეს შედეგები იყენებს მთელ AI ძრავას და ჩვენ მოგვიწევს ლოდინი უფრო მეტს საფუძვლიანი ბენჩმარკინგი თითოეული კომპონენტის ეფექტის სწორად გასაყოფად და იმის დასადგენად, თუ როგორ იყო ეს ტესტები ჩაატარა. მაგალითად, B კომპანიის შედეგები მიუთითებს CPU-ს სარეზერვო? რამდენადაც მე ვიცი, AIMark ამჟამად არ სარგებლობს Kirin 990-ის NPU-ით ჩვენს Mate 30 Pro ერთეულებზე, მაგალითად. მაგრამ ის მხარს უჭერს Snapdragon Neural Processing Engine-ს, ამიტომ ის აუცილებლად გამოიყენებს Qualcomm AI Engine-ს; იმის გათვალისწინებით, რომ ეს არის შიდა ტესტირება, ცალსახად არ არის ნათელი, სწორად იყენებს თუ არა ბენჩმარკი სწორ ბიბლიოთეკებს ან SDK-ს მისი კონკურენტებისთვის.
ასევე უნდა ითქვას, რომ Qualcomm ეფექტურად ადარებს Snapdragon 865-ის AI დამუშავების შესაძლებლობებს ადრე გამოცხადებულ ან გამოშვებულ ჩიპსეტებთან. ძალიან სავარაუდოა, რომ მისმა კონკურენტებმა მოიტანონ ეფექტურობის მსგავსი გაუმჯობესებები შემდეგ ციკლში, და თუ ეს ამ შემთხვევაში, Qualcomm გვირგვინს მხოლოდ ნახევარი წლის განმავლობაში ინახავდა Snapdragon 865 მოწყობილობების თაროებზე გამოსვლის მომენტიდან. ამის თქმით, ეს ჯერ კიდევ მიუთითებს იმაზე, თუ რა სახის მუწუკები შეიძლება ველოდოთ Snapdragon 865-ისგან. Qualcomm ზოგადად ძალიან ზუსტი იყო მუშაობის გაუმჯობესებისა და მომავალი გამოშვებების საორიენტაციო შედეგების კომუნიკაციისას.
ყველა ქსელი, რომელიც წარმოდგენილია ამ კრიტერიუმებში, ახდენს სურათების კლასიფიკაციას მონაცემთა ბაზებიდან, როგორიცაა ImageNet, იღებს მათ შეყვანის სახით და გამოაქვს ასობით კატეგორიიდან ერთს. ისევ და ისევ, ისინი ეყრდნობიან იმავე ტიპის ოპერაციებს, რომლებიც ჩვენ აღვწერეთ მეორე ნაწილში, თუმცა მათი არქიტექტურა ბევრია. უფრო რთული, ვიდრე ეს მაგალითები და ისინი განიხილება, როგორც თანამედროვე გადაწყვეტილებები გამოქვეყნების დროს. საუკეთესო შემთხვევაში, მათი უახლოესი კონკურენტი იძლევა დასკვნის ნახევარზე ნაკლებს წამში.
ენერგიის მოხმარების თვალსაზრისით, Qualcomm-მა შესთავაზა დასკვნები თითო ვატზე, რათა აჩვენოს AI დამუშავების რაოდენობა, რომელიც შესაძლებელია მოცემული სიმძლავრის დროს. საუკეთესო შემთხვევაში (MobileNet SSD), Snapdragon AI Engine-ს შეუძლია გაორმაგებული რაოდენობის დასკვნები შესთავაზოს იმავე ენერგიის ბიუჯეტის ფარგლებში.
სიმძლავრე განსაკუთრებით მნიშვნელოვანია მობილური მოწყობილობებისთვის. იფიქრეთ, მაგალითად, ნერვულ ქსელზე დაფუძნებულ Snapchat ფილტრზე. რეალურად, კომპიუტერული ხედვის მილსადენი ამოიღებს სახის ინფორმაციას და იყენებს ნიღაბს ან შეყვანას ტრანსფორმაციას სჭირდება მხოლოდ 30 ან 60 დასრულება წამში სითხის მისაღწევად გამოცდილება. ნედლეული ხელოვნური ინტელექტის მუშაობის გაზრდა საშუალებას მოგცემთ მიიღოთ უფრო მაღალი გარჩევადობის შეყვანები და გამოუშვათ უკეთესი ფილტრები, მაგრამ ეს შეიძლება ასევე უბრალოდ სასურველია დააკმაყოფილოთ HD გარჩევადობა უფრო სწრაფი ატვირთვისთვის და შეამციროთ ენერგიის მოხმარება და თერმული დათრგუნვა. ბევრ აპლიკაციაში „უფრო სწრაფად“ სულაც არ არის „უკეთესი“ და ამის შემდეგ ადამიანი მიიღებს გაუმჯობესებული ენერგოეფექტურობის სარგებელს.
Snapdragon Summit-ის მე-2 დღის განმავლობაში Snapchat-ის ინჟინერიის უფროსი დირექტორი იური მონასტირშინი ავიდა სცენაზე, რათა ეჩვენებინა, თუ როგორ მათი უახლესი ღრმა სწავლებაზე დაფუძნებული ფილტრები მნიშვნელოვნად აჩქარებულია Hexagon Direct NN-ით Snapdragon-ზე Hexagon 695 DSP-ის გამოყენებით. 865.
ამას გარდა, როგორც დეველოპერები იღებენ წვდომას ნეირონული ქსელის უფრო მარტივ დანერგვაზე და უფრო მეტი აპლიკაცია იწყებს ხელოვნური ინტელექტის ტექნიკის გამოყენებას, კონკურენტული გამოყენების შემთხვევები უფრო ყურადღების ცენტრში იქნება, რადგან სმარტფონს მოუწევს მრავალჯერადი დამუშავება პარალელური AI მილსადენები ერთდროულად (ან ერთი განაცხადისთვის, რომელიც ამუშავებს შეყვანის სიგნალებს სხვადასხვა წყაროდან, ან იმდენი აპლიკაციისთვის, რომელიც მუშაობს ცალკე მოწყობილობაზე). მიუხედავად იმისა, რომ ჩვენ ვხედავთ ენერგოეფექტურობის მნიშვნელოვან მიღწევებს გამოთვლით DSP-ში, GPU-სა და CPU-ში, Qualcomm Sensing Hub ამუშავებს მუდამ ჩართულ შემთხვევებში, რათა მოუსმინოს გამომწვევ სიტყვებს ძალიან დაბალი ენერგიის მოხმარებით. ის საშუალებას აძლევს აუდიო, ვიდეო და სენსორების მიწოდების მონიტორინგს 1 mA-ზე ნაკლები დენით, რაც საშუალებას აძლევს მოწყობილობას აღმოაჩინოს კონკრეტული ხმოვანი ნიშნები (როგორც ბავშვის ტირილი), ციფრული ასისტენტის ნაცნობი საკვანძო სიტყვების თავზე. ამასთან დაკავშირებით, Snapdragon 865 საშუალებას გაძლევთ ამოიცნოთ არა მხოლოდ საკვანძო სიტყვა, არამედ ის, ვინც საუბრობს მასზე, იდენტიფიცირება ავტორიზებული მომხმარებლის შესახებ და იმოქმედოს შესაბამისად.
მეტი AI Edge მოწყობილობებზე
ეს გაუმჯობესებები საბოლოოდ შეიძლება გადაიზარდოს ხელშესახებ სარგებად თქვენი მომხმარებლის გამოცდილებისთვის. სერვისები, რომლებიც მოიცავს თარგმნას, ობიექტების ამოცნობას და ეტიკეტირებას, გამოყენების პროგნოზს ან რეკომენდაციებს, ბუნებრივი ენის გაგება, მეტყველების ანალიზი და ა ძალა. უფრო მაღალი გამოთვლითი ბიუჯეტის ქონა ასევე საშუალებას გაძლევთ შექმნათ ახალი გამოყენების შემთხვევები და გამოცდილება და გადაიტანოთ პროცესები, რომლებიც ადრე ხდებოდა ღრუბელში თქვენს მოწყობილობაზე. მიუხედავად იმისა, რომ ხელოვნური ინტელექტი, როგორც ტერმინი, წარსულში გამოიყენებოდა საეჭვო, მოტყუებით და თუნდაც მცდარი გზებით (თუნდაც OEM-ების მიერ), ბევრი თქვენი სერვისი, რომლითაც დღეს სარგებლობთ, საბოლოოდ ეყრდნობა მანქანური სწავლების ალგორითმებს რაიმე ფორმით ან სხვა.
მაგრამ Qualcomm-ის გარდა, ჩიპსეტების სხვა მწარმოებლები სწრაფად იმეორებდნენ და აუმჯობესებდნენ ამ ფრონტზეც. მაგალითად, 990 5G-მა მოიტანა 2+1 NPU ბირთვის დიზაინი, რის შედეგადაც 2.5-ჯერ აღემატება Kirin 980-ს და ორჯერ აღემატება Apple A12-ს. როდესაც პროცესორი გამოცხადდა, ნაჩვენები იყო, რომ ის ორჯერ სთავაზობდა კადრებს (დასკვნას) წამში Snapdragon 855-ზე INT8 MobileNet-ზე, რაც ძნელია Qualcomm-ის მიერ მოწოდებულ შედეგებთან შესაბამისობა. მეორეს მხრივ, Apple A13 Bionic-მა შესთავაზა ექვსჯერ უფრო სწრაფი მატრიცის გამრავლება თავის წინამორბედთან შედარებით და გააუმჯობესა რვა ბირთვიანი ნერვული ძრავის დიზაინი. ჩვენ მოგვიწევს ლოდინი, სანამ სწორად შევძლებთ Snapdragon 865-ის გამოცდას კომერციულ მოწყობილობებზე მისი ამჟამინდელი და მომავალი კონკურენტების წინააღმდეგ, მაგრამ ეს ასეა. ნათელია, რომ კონკურენცია ამ სივრცეში არასოდეს ჩერდება, რადგან სამი კომპანია ასხამს უამრავ რესურსს თავიანთი ხელოვნური ინტელექტის გასაუმჯობესებლად. შესრულება.