Legyen szó játékosról, tartalomkészítőről vagy adatközponti technikusról, a GPU-k izgalmasak. Itt van minden, amit róluk tudni kell.
A legizgalmasabb PC-összetevők listáján a GPU-k könnyen S-szintűek. Akár egy technológiai rajongó vagy, akár egy átlagos játékos, nehéz nem ragadni egy vadonatúj kiadás hírverésétől (nos, talán már nem). A legtöbben a GPU-t a számítógép azon részeként értik, amely igazán jól futtatja a játékokat, de ennél sokkal többről van szó. Itt van minden, amit tudnia kell a GPU-król, és arról, hogy miért az egyik legegyedibb alkatrész a számítógépben.
Mi az a GPU és hogyan működik
Először is tisztázzuk, mi is az a grafikus feldolgozó egység (GPU). Alapvetően ez egy olyan processzor, amely sok egyedileg gyenge magot, úgynevezett shader-t használ a 3D grafika megjelenítéséhez. A GPU-k mindenféle formában létezhetnek: CPU-ba integrálva (ahogy az Intel fő CPU-iban és az AMD APU-iban látható), ráforrasztva alaplap olyan eszközökben, mint a laptopok, vagy akár egy komplett eszköz részeként is csatlakoztatható számítógépéhez, amelyet grafikusként ismerünk kártya. Bár gyakran használjuk felváltva a GPU és a grafikus kártya szavakat, a GPU csak a processzor a kártyán belül.
A GPU-k és a CPU-k közötti fő különbség az, hogy a GPU-k általában 3D-s feladatokra specializálódtak (például videojátékokra vagy renderelésre), és kiválóan teljesítenek a munkaterhelések párhuzamos feldolgozásával. A párhuzamos feldolgozásnál az összes mag egyszerre ugyanazt a feladatot oldja meg, amivel a CPU-k küzdenek. A CPU-k soros vagy szekvenciális feldolgozásra vannak optimalizálva, ami általában azt jelenti, hogy egyszerre csak egy vagy esetleg néhány mag tud dolgozni egyetlen feladaton. A specializáció azonban azt jelenti, hogy a GPU-k sok olyan dologra nem alkalmasak, amire a CPU-k használhatók.
A GPU a leghíresebb arról, hogy a grafikus kártya gerince, egy olyan eszköz, amely gyakorlatilag önmagában egy számítógép, mivel processzorral, alaplappal, VRAM nevű dedikált memória, és hűvösebb. Nem csak ez, hanem a grafikus kártyák egyszerűen csatlakoztathatók a számítógépekhez egyetlen PCIe bővítőhelyen vagy akár a Thunderbolt port, amely az USB Type C portot használja, amely lehetővé teszi a grafikus kártyák laptopokhoz való csatlakoztatását is. Valójában nincs más olyan alkatrész, mint a grafikus kártya, ami a teljesítményt és a könnyű frissítést illeti.
Milyen cégek gyártanak GPU-kat?
A GPU eredete a videojátékok történetéhez kötődik, amely a GPU-k hagyományos használati esete. Nehéz megmondani, mikor a megalkották az első GPU-t, de a kifejezést először a Sony használta eredeti PlayStation konzoljára 1994-ben, amely Toshibát használt. Forgács. Öt évvel később az Nvidia azt állította, hogy a GeForce 256 volt az első GPU, azzal az indokkal, hogy képes végrehajtani azokat az átalakítási és világítási feladatokat, amelyeket korábban a CPU-n végeztek. Vitathatatlan, hogy nem az Nvidia készítette az első GPU-t, és nem is ez volt az első grafikus kártya asztali számítógépekhez.
Mivel a legkorábbi grafikus processzorok egyszerűek voltak, rengeteg cég gyártott saját GPU-t konzolokhoz, asztali számítógépekhez és más számítógépekhez. De ahogy a GPU fejlődött, ami megnehezítette a gyártásukat, a vállalatok kezdtek kiesni a piacról. Többé nem láttak olyan általános elektronikai cégeket, mint a Toshiba és a Sony, hogy saját GPU-kat készítsenek, és sok olyan cég is bedőlt, amelyek GPU-kat gyártottak, mint például a 3dfx Interactive. A 2000-es évek elejére a búzát levágták a pelyváról, és már csak két jelentős szereplő maradt a grafikában: az Nvidia és az ATI, utóbbit 2006-ban vásárolta meg az AMD.
Több mint két évtizeden át az Nvidia és az ATI/AMD voltak az egyetlenek, amelyek nagy teljesítményű grafikát gyártottak konzolokhoz és PC-khez. Ezzel szemben az integrált grafikus jelenet változatosabb, mert erős ösztönzők vannak az integrált GPU-k gyártására (például nem kell fizetni az Nvidiának vagy az AMD-nek a GPU-k használatáért), és azért is, mert ez nem olyan nehéz. Az Intel azonban 2022-ben belépett a nagy teljesítményű GPU-színtérbe, és a duopóliumot triopóliummá változtatta.
Mire használják a GPU-kat?
Mindig is a játék volt a grafikus kártyák fő felhasználási területe, de ez az utóbbi években egyre kevésbé igaz, ahogy a szélesebb számítási teljesítmény iránti kereslet folyamatosan növekszik. Mint kiderült, a GPU-k magjai nem csak grafikus célokra használhatók, így adatközpontokra és mesterséges intelligenciára optimalizált chipek, úgynevezett általános célú GPU-k (GPGPU-k) születnek. A kereslet annyira megnőtt, hogy az Nvidia adatközponti GPU-i több pénzt hoznak a cégnek, mint a játékra szántak. Az AMD és az Intel az adatközpontok és az AI GPU-k iránti keresletet is igyekszik kihasználni. Végül más cégek is beszállhatnak a versenybe, ahogy egy új piac megvalósul.
Az AI-terhelések esetében a GPU-k hihetetlenül fontossá váltak, mint pl AI képgenerálás vagy a Large Language Models (LLM) képzésében. Ez annak köszönhető, hogy párhuzamosan dolgoznak, és tökéletesek a nagy mátrixműveletekhez, amelyek rendkívül gyakoriak az AI-ban.
Nvidia vs. AMD vs. Intel: melyik a legjobb játékhoz?
Amióta a 90-es években a játékra szánt asztali grafikus kártyák először népszerűvé váltak, azóta is folyamatosan felteszik a kérdést: Melyik márka a legjobb? Nemrég csak azt kérdezték az emberek, hogy az Nvidia jobb-e az AMD-nél és fordítva, de most egy kicsit bonyolultabbak a dolgok, amikor az Intel beszáll a harcba. Bár egyik márka sem teljesen jobb a másiknál, mindegyiknek megvannak a maga erősségei és gyengeségei.
Az Nvidia mindig is választási lehetőségként pozicionálta magát azok számára, akik a legjobb játék GPU a legnagyobb teljesítménnyel és a legcsábítóbb funkciókkal. Míg az Nvidia grafikus kártyái általában jók, gyakran drágák is, legalábbis az AMD és most az Intel kártyáihoz képest. Ezen túlmenően, bár az Nvidia exkluzív funkciói papíron menők, előfordulhat, hogy a tényleges élmény nem felel meg a felhajtásnak. Például, DLSS Ez egy nagyon jó funkció az Nvidia kártyákhoz, de nem sok játékban van, és van néhány hátránya.
Valójában nincs más olyan alkatrész, mint a grafikus kártya, ami a teljesítményt és a könnyű frissítést illeti.
Ezzel szemben az AMD nem mindig versenyzett az Nvidiával. Az AMD hagyományosan jobb értékű GPU-kat kínált, ami gyakran hagyja, hogy az Nvidia csúcskategóriás kártyái kifogástalanok maradjanak. Másrészt az Nvidia gyakran szabad kezet enged az AMD-nek költségvetési GPU piac, és ez ma különösen igaz. Ezenkívül az AMD rendszerint lemarad az Nvidia mögött a funkciók terén, de tisztességes eredményeket tud felzárkózni, sőt néha felülmúlja versenytársait.
Az Intel a cikk írásakor még csak körülbelül egy éve van jelen a játék GPU-k piacán, így még nem igazán honosodott meg, de eddig az Intel az AMD által megszokott értékkel versenyzett. Az Intel számára a legnagyobb küzdelmet az illesztőprogramok jelentik, vagy a szoftver, amely döntő szerepet játszik abban, hogy a GPU milyen jól teljesít a játékokban. Az első generációs Arc Alchemist GPU-k 2022-es bemutatása óta az Intel keményen dolgozik illesztőprogramjai optimalizálásán, és ma Intel Arc A750 népszerű választás az alsó- és középkategóriás PC-k számára.
Egyértelmű, hogy az egyes cégek hol kiemelkedőek. Az Nvidia a legjobb választás azok számára, akik nagy költségvetéssel rendelkeznek, és egyaránt szeretnének kiváló teljesítményt és élvonalbeli funkciókat. Az AMD márka több ember számára, és bár az AMD csúcskategóriás kártyái általában nem teljesen egyeznek az Nvidiáéval teljesítményben és szolgáltatásaiban, az is igaz, hogy az Nvidia 2019 óta nem gyárt 300 dollár alatti kártyát. Az Intel jelenleg egy jó középkategóriás GPU-t kínál, de nagyjából ennyi, bár a közelgő kártyák megváltoztathatják a dolgokat.
Általánosságban elmondható, hogy a GPU-piac változásra készül az elkövetkező néhány évben: az Nvidia még inkább a csúcskategóriás szegmens felé mozdul el, az Intel pedig belép a harcba. Meg kell néznünk, hogy ez hogyan alakul tovább.