Minden idők 7 legjobb GPU-ja

A valaha készült nagyszerű GPU-k közül hét van, amely igazán kiemelkedik.

A GPU a játék PC talán legizgalmasabb része: biztosítja a felbontás növeléséhez, a vizuális részletek beállításához szükséges teljesítményt, és könnyen generációról generációra fejleszthető. Ez egyben az a hagyományos aréna is, ahol az Nvidia és az AMD a kereskedelmi és technológiai fölényért küzd (bár a harc az utóbbi években az adatközpontok felé terelődött). Ez a két cég gyakran foggal-körömmel küzdött minden generációban, néha termelnek is grafikus kártyák amelyek nemcsak nagyszerűek, hanem valóban meghatározóak az iparág irányának megváltoztatásában.

Még egy tucat történelmi grafikus kártyát is rendkívül nehéz kiválasztani; Az iparág 30 éves története során több mint 20 játékmódosító GPU-t javasolhat, és egyszerűen túl sokáig tartana mindegyik elemzése. Beazonosítottam az elmúlt 20 év hét legfontosabb Nvidia és AMD grafikus kártyáját, és azt, hogy mindegyik hogyan jelentett jelentős fordulópontot.

ATI Radeon 9700 Pro: Annak meghatározása, hogy mit jelent legendásnak lenni

Amikor a grafikai ipar először megjelent, még nem volt olyan duopólium, mint manapság, és a 90-es években a fő szereplők az Nvidia, az ATI, a Matrox és a 3dfx voltak. Mire 1999-ben megjelent a GeForce 256 (amire az Nvidia megkérdőjelezhetően az első GPU volt), a Matrox kilépett a játékpiacról, és a 3dfx éppen a szellemi tulajdonának nagy részét értékesítette Nvidia. Az ATI volt az utolsó cég, amely szembe tudott állni az Nvidiával, és az esélyek nem tűntek jónak. A cég Radeon 7000-es és 8000-es GPU-i alulmaradtak az Nvidia saját GeForce GPU-ival szemben, és ha az ATI nem tud versenyezni, akkor megismétlheti a Matrox és a 3dfx sorsát.

A győzelem érdekében az ATI úgy döntött, hogy valami radikálisat tesz, és a normálnál jóval nagyobb GPU-t készít. A legtöbb GPU lapka területe 100 mm2 volt, de az R300 processzor fejlesztésekor az ATI úgy döntött, hogy 200 mm2 fölé teszi. A nagyobb GPU-k előállítása sokkal drágább, de a teljesítmény előnyei óriásiak voltak. Az R300 GPU több mint 110 millió tranzisztort tartalmazott, így az Nvidia csúcskategóriás GeForce4-je a maga 63 millió tranzisztorával összehasonlítva kicsinek tűnik.

Az R300 hajtotta a Radeon 9000 sorozatot, amely 2002-ben debütált a Radeon 9700 Pro-val. A 9700 Pro szinte minden játékban teljesen megtizedelte az Nvidia GeForce4 Ti 4600-at, és néhány esetben kétszeresére vagy még többre verte az Nvidia zászlóshajóját. Annak ellenére, hogy 100 dollárral drágább, mint a Ti 4600, hasonló kiadványok Anandtech ragyogó ajánlásokat adott a 9700 Pro számára. Az ATI nagy GPU-jának sikere némi haladékot adott a cégnek az Nvidiától, de nem sokáig.

Nvidia GeForce 8800: Az egyetlen kártya, ami számított

A 9700 Pro valóban megalapozta a következő két évtizedes grafikus kártyákat, és nagyon gyorsan világossá vált, hogy az új csúcskategóriás GPU-knak nagynak kell lenniük. Az Nvidia és az ATI követte az R300-at 200, sőt 300 mm2 méretű chipekkel, és bár az ATI indította el ezt a fegyverkezési versenyt, végül az Nvidia 2006-ban a GeForce 8 sorozatával visszaszerezte teljesítménybeli vezető szerepét, amely a GeForce 8800 GTX és 8800 GTS.

A zászlóshajó 8800 GTX 50%-tól 100%-ig gyorsabb volt, mint az ATI csúcskategóriás Radeon X1950-je, ami győzelmet hozott. hogy Anandtech mondott „hasonló volt ahhoz, amit a Radeon 9700 Pro esetében láttunk”. A felső középkategóriás GeForce GTS eközben egyes címeknél lekötheti az X1950-et, míg másokban 50%-kal megveri. A 8800 GTX és a 8800 GTS még 600 és 450 dollárért is ragyogó dicséretet kapott.

De a GeForce 8800 család igazi sztárja a GeForce 8800 GT volt, amely 2007 végén jelent meg. Annak ellenére, hogy csak egy enyhén csökkentett 8800 GTX volt, körülbelül 200 dollárért kelt el, ami a csúcsmodell árának körülbelül egyharmada. Ezzel gyakorlatilag minden más Nvidia és ATI GPU elavult, még a legújabb Radeon HD 2900 XT is. Megdöbbentő volt, amit az Nvidia művelt a 8800 GT-vel, és elképzelhetetlen, hogy valaha is megismétlődjön ilyesmi tekintettel a piac jelenlegi állapotára.

AMD Radeon HD 5970: Megszületett a modern grafikai rivalizálás

A GeForce 8 sorozat után az Nvidia egy időszakot élvezett az ATI-val szemben, amelyet 2006-ban vásárolt meg az AMD. A Radeon HD 2000 és 3000 sorozatot már a felvásárláskor tervezték, ami Ez azt jelentette, hogy az AMD csak a HD 4000-es sorozatból tudta elkezdeni új grafikus egysége irányának megváltoztatását tovább. Az AMD megfigyelte az Nvidia és az ATI közötti dinamikát, és végül elutasította a Radeon 9000 sorozat óta fennálló nagy GPU status quo-t. Az ATI és az AMD új tervét "kis kocka stratégiának" nevezték.

A HD 4000 és 5000 sorozat alapfilozófiája az volt, hogy a nagy GPU-k tervezése és gyártása túl drága volt. A kisebb GPU-k elérhetik a nagy GPU-k teljesítményének legnagyobb részét, különösen, ha a legújabb gyártási folyamatot vagy csomópontot használják. Ha az AMD szupergyors GPU-t akart, akkor a CrossFire technológiájára támaszkodhatna, amely lehetővé tette két kártya együttműködését. A kis kockás stratégia a HD 4000-es sorozattal debütált, és bár teljesítményben nem ütötte meg a GTX 200-as sorozatot, az AMD kisebb GPU-i nagyjából olyan gyorsak voltak, miközben az ár csaknem felébe került.

A 2009-es HD 5000-es sorozat nem csak a kis kockák stratégiáját ismételgette, hanem kihasználta az Nvidia katasztrofális GTX 400-as sorozatának kiszabadításával kapcsolatos küzdelmeit is. A HD 5870 volt az AMD leggyorsabb grafikus processzora egyetlen grafikus processzorral, és megverte az Nvidia zászlóshajóját, a GTX 285-öt, amelyet idős kora miatt szorongattak. A HD 5970 azonban egy grafikus kártya volt az AMD két csúcskategóriás grafikus kártyájával, aminek eredményeképpen egy GPU lett szó szerint túl gyors a legtöbb felhasználó számára. Az Nvidia sajnálatos módon nem megfelelő GTX 400-a biztosította, hogy a HD 5970 maradjon a világ leggyorsabb GPU-ja 2012-ig, nagyjából három évig.

Az AMD kiskockás stratégiája, bár pillanatnyilag sikeres volt, végül a HD 5000-es sorozat után feladták. Hiszen ha az Nvidia GTX 400 GPU-i jók lennének, akkor a HD 5000 kis mérete nagy gondot jelentett volna. Ettől kezdve az AMD továbbra is prioritásként kezeli a legújabb csomópont elérését, de nem zárkózik el a nagy GPU-k gyártásától sem. Az Nvidia eközben gyakran marad a régebbi, kiforrott csomópontokon, hogy pénzt takarítson meg, és költséghatékony módon nagy GPU-kat gyártson. út. Ezek a tendenciák többnyire a mai napig megmaradtak.

AMD Radeon R9 290X: Radeon hattyúdala

A HD 5000 és a GTX 400 után az AMD és az Nvidia közötti dinamika megváltozott és kiegyensúlyozottabbá vált. Az AMD HD 6000 sorozata nem igazán javított a HD 5000-en, míg az Nvidia GTX 500 sorozata megoldotta a GTX 400 teljesítményével és energiahatékonyságával kapcsolatos problémákat. 2012-ben a HD 7000 és a GTX 600 sorozat döntetlenre küzdött, bár az AMD-t a világ első 1 GHz-es GPU-jának piacra dobásával érdemelte ki. Abban az időben az AMD és az Nvidia is a TSMC 28 nm-es csomópontját használta, és az AMD szeretett volna a 22 nm-es csomópontra frissíteni, hogy előreléphessen.

Az AMD ezt tette volna, ha nem a világ szinte minden szilíciumgyártójával szembesültek a 28 nm-nél továbbhaladó problémák. 2013-ban az AMD nem támaszkodhatott a folyamatelőnyre, és mindkét vállalat ismét vadonatúj terméket dobott piacra. GPU-k a TSMC 28 nm-es csomópontján, ami az iparág legnagyobb zászlóshajó-GPU-it eredményezte. dátum. Az Nvidia az 1000 dolláros GTX Titan és a 650 dolláros GTX 780 áraival verte az AMD-t a következő generációra, amelyek hihetetlenül gyors GPU-k voltak, 561 mm2-es méretükkel (még a jelenlegi szabványok szerint is nagy).

Az R9 290X néhány hónappal később megjelent, és szinte döntő csapást mért az Nvidia fényes új GPU-ira. Annak ellenére, hogy viszonylag kis méretű, 438 mm2-es matrica, képes volt legyőzni a 780-at és a Titánhoz mérten mindössze 550 dollárért, így a 290X-es ár/teljesítmény szörnyeteg" alapján Anandtech. Egy másik HD 5970 vagy 9700 Pro lett volna, ha nincs egy fő gyengeség: az energiafogyasztás. A 290X túl sok energiát fogyasztott, és a referenciakártya egyszerűen túl forró és hangos volt. Végső soron ez a helyzet megoldhatatlannak bizonyulna az AMD számára, és a győzelme rövid életű lenne.

Nvidia GeForce GTX 1080: Az Nvidia a modern grafika arca lett

A 290X megjelenése utáni években az Nvidia és az AMD közötti dinamika drámaian megváltozott. A HD 5000-es sorozat óta az AMD-nek mindig sikerült lépést tartania az Nvidiával és versenyezni az első helyen, de a pénzügyi problémák különböző okok miatt kezdtek gyötörni a céget. Amikor 2014-ben az Nvidia bemutatta új GTX 900 sorozatát, az AMD új GPU-i sehol sem voltak. Az AMD végül 2015-ben dobott piacra új kártyákat, de a legtöbbjük csak felfrissített 200-as sorozatú kártya volt, miközben a csúcskategóriás R9 Fury X nem tudta újrateremteni az R9 290X varázslatos pillanatát.

Eközben a TSMC végül 2015-ben elindította új, 16 nm-es csomópontját, ami azt jelentette, hogy a GPU-k következő generációja végre megkaphatja a nagyon szükséges frissítést. Normális körülmények között ez az AMD előnyére vált volna, és lehet, hogy a 16 nm-t használta volna node, amint megjelent, ha nem az a tény, hogy a cég a távozás szélén állt csődbe jutott. Ehelyett 2016-ban az Nvidia érte el először a 16 nm-t a GTX 10-es sorozatával, amely alapvetően megegyezik a GTX 900-as sorozattal, eltekintve a 16 nm-es csomóponttól.

A zászlóshajó GTX 1080 világossá tette, hogy a szilíciumipar mekkora lemaradásban van új csomópontok nélkül, amelyekre frissíteni kellene. A 2015-ös csúcskategóriás 980 Ti-hez képest az 1080 fele akkora volt, negyedével kevesebb energiát fogyasztott, és átlagosan 30%-kal gyorsabb. Ez egy őrült javulás egyetlen generációhoz képest, különösen, mivel a 900-as sorozatot is nagy előrelépésnek tekintették elődjéhez képest. Az Nvidia olyan hatalmas győzelmet aratott az AMD felett, hogy a játék GPU-k szinte a GeForce szinonimájává váltak.

A 10-es sorozat talán a valaha kiadott legnagyobb grafikus kártyacsalád, és egyedülálló abban is, hogy a GPU-k utolsó nagy generációja volt, mielőtt a piac rosszabbra fordult volna. A GTX 1080 Ti hat éves a cikk írásakor, de még mindig a középkategóriától a csúcskategóriáig terjedő játékélményt nyújt; referenciaként 2017-ben a hatéves GTX 680 már alig volt középkategóriás. A PC-rajongók szinte általánosan nosztalgiáznak a 10-es sorozat iránt, amely akkor indult, amikor a GPU-k nem kerültek négy számjegybe.

Nvidia GeForce RTX 3080 10 GB: Az Nvidia megdob minket

A GTX 10 sorozat fantasztikusságát azonnal követte a hírhedten kiábrándító RTX 20 sorozat 2018-ban. Ezek a GPU-k alapvetően alig vagy egyáltalán nem nyújtottak jelentős teljesítményjavulást a 10-es sorozathoz képest, amíg a Super refresh 2019-ben megjelent. Az Nvidia innovatív sugárkövetési és mesterséges intelligencia technológiáira akart támaszkodni az AMD eltörléséhez (amelynek egyike sem volt), de akut A sugárkövetést és a mély tanulási szupermintavételezést (vagy DLSS-t) használó játékok hiánya miatt a 20-as sorozat rossz üzlet volt Tábornok.

Annak érdekében, hogy jobb új generációs terméket biztosítson, és elhárítsa az AMD saját, következő generációs GPU-inak fenyegetését, az Nvidiának az egyértelműen jobb teljesítmény és érték biztosítására kellett összpontosítania. Lényeges, hogy az Nvidia kizárólag a Samsunggal szövetkezett, és elhagyta a TSMC-t, hagyományos partnerét. A Samsung 8 nm-es csomópontjának használatával az Nvidia némi teljesítményt és hatékonyságot hagyott maga után, mivel a TSMC 7 nm-e jobb volt. Mivel azonban a Samsungnak kisebb volt az igénye a processzorok iránt, nagy valószínűséggel az Nvidia sokat tett a közelgő GPU-k elkészítéséhez.

Az RTX 30 sorozat 2020 végén jelent meg, az RTX 3090 és 3080 vezetésével. A 3090 a maga 1500 dolláros árcédulájával alapvetően értelmetlen volt; a 700 3080 dollár volt a show igazi sztárja. Ez az RTX 2080 cseréje volt, átlagosan 50%-kal nagyobb teljesítménnyel 1440p-nél. amelyhez Techspot "nagyon sokkal jobb volt, mint amit az előző generációban kaptunk." A 30-as sorozat is profitált a sugárkövetés és a DLSS fokozott használata, amelyek kezdetben trükkök voltak, de végül váltak hasznos. Már csak egy kérdés maradt: hogyan reagálna az AMD?

AMD Radeon RX 6800 XT: Már nem olcsó alternatíva

2014 óta az AMD a költségvetési alternatíva, az a márka, amelyhez akkor fordult, amikor a legjobb ár-érték arányra volt szüksége, és nem törődött a funkciókkal, az energiafogyasztással vagy a hibákkal. Valahányszor az AMD megpróbálta visszavinni a harcot a csúcskategóriába, az Nvidia mindig egy lépéssel előtte járt. 2019-ben azonban az AMD a TSMC 7 nm-es eljárásával végre visszaszerezte a csomóponti előnyt. Mivel az Nvidia a Samsung 8 nm-es technológiáját választotta, ez biztosította az AMD versengő chipjei előnye, nem beszélve arról, hogy az AMD mérnökei a 7 nm-es gyártásban is nagyon jók lettek processzorok.

Két hónappal az RTX 3090 és 3080 megjelenése után az AMD piacra dobta az RX 6900 XT, 6800 XT és 6800 modelleket. Minden szem a 650 dolláros 6800 XT-re szegeződött, amely készen áll arra, hogy fej-fej mellett haladjon a 3080-zal. A PC-rajongó közösség két hónapig várt arra, hogy ezek az új GPU-k végre lelassuljanak. 2020. november 18-án az AMD végre visszatért a csúcskategóriához. A 6800 XT felérhet a 3080 teljesítményével, ami jelentős eredmény, mivel az AMD a GTX 900 sorozat óta mindig egy évvel lemaradt az Nvidia mögött. Ez nem volt döntő győzelem az AMD számára, de egy kis győzelem jobb volt a semminél.

Bár ez nem volt ilyen egyszerű. A hírhedt GPU-hiány 2020-ban kezdődött, és egészen 2022 elejéig tartott. Ez azt jelentette, hogy az MSRP-k nem igazán számítanak, és a végeredmény az lett, hogy sem a 6800 XT, sem a 3080 nem volt elérhető elfogadható áron. De amikor a hiány kezdett megszűnni, az AMD-kártyákat MSRP-n kezdték el árulni, az Nvidia GPU-kat viszont nem. Valójában manapság a 6800 XT-t 600 dollár alatti áron találhatja meg, míg a 3080 ritkán kerül 700 dollár alá.

Az árazás jelentős tényező abban, hogy a 6800 XT és az egész RX 6000 sorozat miért olyan könnyen ajánlható, annak ellenére, hogy hiányzik a jó sugárkövetési teljesítmény és az élvonalbeli funkciók. Itt és most tényleg úgy tűnik, hogy az AMD győzött, de ez megint csak nem ilyen egyszerű.

A GPU-k disztópikus jövője

Az Nvidia 2018-ban nyitotta meg Pandora szelencéjét, amikor elindította az RTX 20 sorozatot. Bevezette a négy számjegyű árcímkékkel ellátott GPU-k korszakát, olyan GPU-kat, amelyek nem hoznak érdemi teljesítményt fejlesztések és GPU-k, amelyek csak akkor tűnnek ki igazán, ha új, néha kétes technológiákat használnak érték. 2020-ban egy rövid pillanatra mindannyian azt hittük, hogy az Nvidia és az AMD befecskendezi nagy szükség van energiát a piacra, de világossá vált, hogy egyik vállalat sem akarja visszafordítani óra.

2023-ban az Nvidiának van egy zászlóshajója, amely többe kerül, mint a középkategóriás PC, egy középkategóriás kártya, amit kapott indulás előtt egy hónappal törölték fogyasztói düh miatt, és mobil GPU-k, amelyeknek szörnyű neveik vannak. Eközben az AMD szó szerint csak azért nyer a 300 dollár alatti szegmensben, mert az Nvidia 2019 óta nem versenyzett ott, és saját zászlóshajója a GPU. jóval az Nvidia mögött. Ez csak egy katasztrófa, akárhogyan is nézzük, és amíg ez a két cég birtokolja a PC-s játékok kulcsát, addig fizetned kell nekik, amit jónak látnak.