Mis on GPU? Komponendi sees, mis toidab mängimist ja palju muud

Olenemata sellest, kas olete mängija, sisulooja või andmekeskuse tehnik, on GPU-d põnevad. Siin on kõik, mida peate nende kohta teadma.

Kõige põnevamate arvutikomponentide loendis on GPU-d hõlpsasti S-tasemel. Olenemata sellest, kas olete tehnikahuviline või lihtsalt tavaline mängija, on raske mitte sattuda uhiuue väljalase hüppesse (no võib-olla enam mitte). Enamik mõistab GPU-d kui arvuti osa, mis jookseb mänge väga hästi, kuid selles peitub palju enamat. Siin on kõik, mida pead teadma GPU-de ja selle kohta, miks need on arvuti üks unikaalsemaid komponente.

Mis on GPU ja kuidas see töötab

Esiteks teeme selgeks, mis täpselt on graafikaprotsessor (GPU). Põhimõtteliselt on see protsessor, mis kasutab 3D-graafika renderdamiseks palju individuaalselt nõrku tuumasid, mida nimetatakse varjutajateks. GPU-d võivad olla igasugusel kujul: integreeritud protsessorisse (nagu on näha Inteli tavalistes CPU-des ja AMD APU-des), joodetud emaplaat sellistes seadmetes nagu sülearvutid või isegi täieliku seadme osana, mille saate arvutiga ühendada, mida nimetatakse graafikaks kaardile. Kuigi me kasutame sageli sõnu GPU ja graafikakaart vaheldumisi, on GPU vaid protsessor kaardi sees.

Peamine erinevus GPU-de ja CPU-de vahel seisneb selles, et GPU-d on tavaliselt spetsialiseerunud 3D-ülesannetele (näiteks videomängude mängimine või renderdamine) ja töötavad paralleelselt töökoormuse töötlemisel. Paralleelse töötlemisega tegelevad kõik tuumad korraga sama ülesandega, mille kallal protsessorid vaeva näevad. Protsessorid on optimeeritud jada- või järjestikuseks töötlemiseks, mis tavaliselt tähendab, et ühe ülesandega saab korraga töötada ainult üks või võib-olla paar tuuma. Spetsialiseerumine tähendab aga seda, et GPU-d ei sobi paljude asjade jaoks, mille jaoks protsessoreid saab kasutada.

GPU on kõige kuulsam selle poolest, et see on graafikakaardi selgroog, seade, mis on praktiliselt arvuti, kuna sellel on protsessor, emaplaat, spetsiaalne mälu nimega VRAMja jahedam. Mitte ainult seda, vaid graafikakaarte saab hõlpsasti arvutiga ühendada ühe PCIe pesa või isegi a Thunderbolti port, mis kasutab C-tüüpi USB-porti, mis võimaldab graafikakaarte sülearvutitega ühendada ka. Tõepoolest, jõudluspotentsiaali ja uuendamise lihtsuse osas pole ühtegi teist komponenti nagu graafikakaart.

Millised ettevõtted toodavad GPU-sid?

Allikas: Nvidia

GPU päritolu on seotud videomängude ajalooga, mis on olnud GPU-de traditsiooniline kasutusjuht. Raske öelda, millal loodi esimene GPU, kuid ilmselt võttis selle termini esmakordselt kasutusele Sony oma algse PlayStationi konsooli jaoks 1994. aastal, mis kasutas Toshibat. kiip. Viis aastat hiljem väitis Nvidia, et tema GeForce 256 oli kõigi aegade esimene GPU, põhjendades seda sellega, et see suudab täita protsessoriga varem tehtud teisendus- ja valgustusülesandeid. Väidetavalt ei loonud Nvidia esimest GPU-d ja see polnud isegi esimene lauaarvutite graafikakaart.

Kuna varasemad graafikaprotsessorid olid lihtsad, oli palju ettevõtteid, kes valmistasid oma GPU-sid konsoolide, lauaarvutite ja muude arvutite jaoks. Kuid GPU arenedes, mis muutis nende valmistamise keerulisemaks, hakkasid ettevõtted turult välja langema. Te ei näinud enam üldisi elektroonikaettevõtteid, nagu Toshiba ja Sony, loomas oma GPU-sid, ja paljud ettevõtted, kes ei teinud muud peale GPU-de, nagu 3dfx Interactive, läksid samuti pankrotti. 2000. aastate alguseks oli nisu sõkaldest ära lõigatud ja graafikas oli järel vaid kaks suurt tegijat: Nvidia ja ATI, millest viimase omandas AMD 2006. aastal.

Üle kahe aastakümne olid Nvidia ja ATI/AMD ainsad ettevõtted, kes suutsid toota suure jõudlusega graafikat konsoolidele ja personaalarvutitele. Integreeritud graafika stseen seevastu on olnud mitmekesisem, kuna integreeritud GPU-de valmistamiseks on tugevad stiimulid (nt ei pea maksma Nvidiale või AMD-le nende GPU-de kasutamise eest) ja ka seetõttu, et see pole nii raske. Intel sisenes aga 2022. aastal suure jõudlusega GPU-sse, muutes duopoli triopoliks.

Milleks GPU-sid kasutatakse?

Mängimine oli alati olnud graafikakaartide peamine kasutusala, kuid viimastel aastatel on see üha vähem tõsi, kuna nõudlus laiema arvutusvõimsuse järele kasvab. Nagu selgub, on GPU-de tuumad kasulikud rohkem kui lihtsalt graafika jaoks, luues andmekeskuse ja tehisintellekti jaoks optimeeritud kiibid, mida nimetatakse üldotstarbelisteks GPU-deks (GPGPU). Nõudlus on tõusnud nii suureks, et Nvidia andmekeskuse GPU-d teenivad ettevõttele rohkem raha kui mängude omad. AMD ja Intel püüavad ka andmekeskuste ja AI GPU-de nõudlust raha teenida. Lõpuks võivad uue turu realiseerumisel võistlustulle astuda ka teised ettevõtted.

AI töökoormuste puhul on GPU-d muutunud uskumatult oluliseks AI kujutise genereerimine või suurte keelemudelite (LLM) koolitusel. Seda tänu nende paralleelse töötlemise võimele, mis sobib suurepäraselt suurte maatriksoperatsioonide jaoks, mis on AI-s väga levinud.

Nvidia vs. AMD vs. Intel: milline on mängude jaoks parim?

Alates sellest, kui lauaarvuti graafikakaardid mängude jaoks esimest korda populaarseks said 90ndatel, on sellest ajast peale pidevalt küsitud ühte küsimust: milline bränd on parim? Hiljuti küsiti vaid, kas Nvidia on parem kui AMD ja vastupidi, kuid nüüd on Inteli kaklusesse astudes asjad veidi keerulisemad. Kuigi ükski bränd pole teisest täiesti parem, on igal ühel oma tugevad ja nõrgad küljed.

Nvidia on alati positsioneerinud end valikuvõimalusena neile, kes seda soovivad parim mängu GPU suurima jõudlusega ja kõige köitvamate funktsioonidega. Kuigi Nvidia graafikakaardid on tavaliselt head, on need sageli ka kallid, vähemalt võrreldes AMD ja nüüd Inteli omadega. Lisaks, kuigi Nvidia eksklusiivsed funktsioonid on paberil lahedad, ei pruugi tegelik kogemus vastama reklaamile. Näiteks, DLSS on Nvidia kaartide jaoks väga tore funktsioon, kuid seda pole paljudes mängudes ja sellel on üsna palju puudusi.

Tõepoolest, jõudluspotentsiaali ja uuendamise lihtsuse osas pole ühtegi teist komponenti nagu graafikakaart.

Seevastu AMD pole alati Nvidiaga võistelnud. AMD on ajalooliselt pakkunud parema väärtusega GPU-sid, mis võimaldab sageli Nvidia tipptasemel kaartidel vaidlustada. Teisest küljest annab Nvidia sageli AMD-le vabad käed eelarve GPU turg, ja see kehtib eriti tänapäeval. Lisaks jääb AMD funktsioonide osas tavaliselt Nvidiast maha, kuid tal on korralikud saavutused konkurentidele järele jõudmisel ja mõnikord isegi ületamisel.

Intel on selle artikli kirjutamise ajal mängude GPU-turul olnud vaid umbes aasta, seega pole see veel ennast tõestanud, kuid seni on Intel võistelnud väärtusel, mida AMD tavaliselt teeb. Suurim võitlus Inteli jaoks on olnud selle draiverid või tarkvara, mis mängib otsustavat rolli selles, kui hästi GPU mängudes toimib. Alates oma esimese põlvkonna Arc Alchemist GPU-de turuletoomisest 2022. aastal on Intel oma draiverite optimeerimisel kõvasti tööd teinud ja täna Inteli Arc A750 on populaarne valik madalate ja keskmiste arvutite jaoks.

On üsna selge, kus iga ettevõte silma paistab. Nvidia on parim valik neile, kellel on suur eelarve ja kes soovivad nii suurepärast jõudlust kui ka tipptasemel funktsioone. AMD on bränd rohkematele inimestele ja kuigi AMD tipptasemel kaardid ei vasta tavaliselt jõudluse ja funktsioonide poolest Nvidia omadele, on tõsi ka see, et Nvidia pole alates 2019. aastast teinud alla 300 dollari suurust kaarti. Intel pakub praegu head keskklassi GPU-d, kuid see on ka kõik, kuigi tulevased kaardid võivad asju muuta.

Üldiselt on GPU turul lähiaastatel ette nähtud muutused, Nvidia liigub veelgi enam tipptasemel segmenti ja Intel astub võitlusse. Peame nägema, kuidas see edasi areneb.