7 værste GPU'er nogensinde

Der er dårlige GPU'er, og så er der GPU'er, som vi aldrig vil glemme på grund af hvor katastrofale de var.

Det er ikke svært at få en dårlig GPU. Det skal bare have ringe værdi, en slags lammende ulempe, eller simpelthen være en skuffelse. Der er masser af kort, der inkorporerer en eller to af disse egenskaber, men en gang imellem vidner vi om magiske øjeblikke, når et grafikkort rammer alle tre.

Om vi ​​taler om de bedste GPU'er nogensinde eller det værste, det er ret svært at begrænse vinderne (eller tabere i dette tilfælde) til kun syv. Heldigvis er jeg noget af en kender i forfærdelige grafikkort og PC hardware generelt, så her er mine valg til de værste GPU'er nogensinde lanceret.

1 Nvidia GeForce GTX 480: 'G'et' i GPU står for grill

Kilde: Hyins

I tiåret efter fremkomsten af ​​det moderne grafikkort var der faktisk ikke så mange dårlige dem, og når der var, havde de en minimal indvirkning, da industrien bevægede sig så hurtigt tilbage derefter. Det var ret almindeligt at se næste generations GPU'er slå deres forgængere med over 50 %, og 100 % eller mere var ikke sjældent. Men i 2010 blev tingene mere komplicerede, især for Nvidia. Den prøvede at lave en massiv GPU på TSMC's 40nm, som var en slags ødelagt. Slutresultatet var Nvidias værste teknologiske bommert nogensinde: Fermi, som drev GTX 480.

Fordi 400-serien måtte forsinkes på grund af disse vanskeligheder, havde AMD taget præstationskronen fra Nvidia med sin Radeon HD 5000-serie i slutningen af ​​2009 og holdt den i seks måneder. 480'eren genvandt kronen med et forspring på 10 % i forhold til Radeon HD 5870, men til en frygtelig pris: $500 sammenlignet med 5870'erens $380. Og det var bare den bogstaveligt talt forfærdelige pris; det blev endnu dyrere i betragtning af 480'ernes enorme strømforbrug. I Anandtech's afprøvning, kortet forbrugte godt 200W under belastning og ramte over 90 grader Celsius. Hvis du nogensinde har hørt om "måden, det er ment til at blive grillet", er det dette, det refererede til.

GTX 480 var alt for varmt, alt for højt og alt for dyrt.

Det er tilstrækkeligt at sige, at GTX 480 ikke skar den på trods af dens ydeevne. Det var alt for varmt, alt for højt og alt for dyrt. Nvidia skyndte sig hurtigt ud med GTX 500-serien blot et halvt år senere og udnyttede 40nm nodens øgede modenhed og arkitekturniveauforbedringer for at øge effektiviteten. En processor er unægteligt dårlig, hvis den skal udskiftes efter måneder frem for år, og GTX 400-serien er en af ​​de kortest levede produktlinjer i GPU-historien.

2 AMD Radeon R9 390X: To år gamle rester

Kilde: MSI

Et par år efter GTX 480-debaclet vendte tingene tilbage til det normale. Nvidia formåede at holde sig på toppen med GTX 500-serien, men markedet blev konkurrencedygtigt igen fra 2012, hvor Nvidia mistede fodfæstet til AMD's R9 290X i slutningen af ​​2013. Så der var AMD i toppen af ​​verden efter endnu en lang kamp for at komme tilbage på førstepladsen. Hvad var det næste for denne underdog med et nyt liv?

Finansiel uro og potentiel konkurs, som det viser sig. Selvom AMD's GPU'er var ret konkurrencedygtige med Nvidias det meste af tiden, tjente de ikke, og da 290X kom på markedet, var virksomheden stort set løbet tør for penge til R&D. Dens næste generation af GPU'er udkom først i 2015, over et år efter Nvidias legendariske GTX 900-serie, men den "nye" Radeon 300-serie, der blev lanceret i 2015, var alt andet end. Det var bogstaveligt talt en kopi af 200-serien med mindre justeringer.

300-serien var ikke den GPU, AMD skulle lancere i 2015.

En særlig dårlig tilføjelse var R9 390X, som var en rebranded 290X. På trods af dets høje strømforbrug på over 300W under fuld belastning, var anmeldelserne noget positive og udgjorde det som et billigere alternativ til GTX 980. Jeg er dog ikke så sikker på, at testdataene understøtter denne konklusion. TechPowerUp fandt ud af, at 390X kun kunne matche 980 ved 4K, hvor billedhastigheden normalt var mindre end 60 FPS og nogle gange mindre end 30 FPS. I mellemtiden matchede GTX 970 390X ved 1080p for $100 mindre, hvilket gør det til en langt bedre aftale (for ikke at nævne mere effektiv).

300-serien var ikke den GPU, AMD skulle lancere i 2015. Det var et år forsinket og næsten præcis, hvad folk fik i 2013. AMD lancerede også R9 Fury og R9 Fury X, som faktisk var nye flagskibskort, men det genskabte ikke helt 290X-øjeblikket. AMD ville ikke gøre et reelt forsøg på at generobre præstationskronen i årevis.

3 Nvidia GeForce RTX 2080: Begyndelsen på enden

Kilde: Nvidia

Teknologiske bommerter er ofte det, der i sidste ende ødelægger forfærdelige grafikkort, men nogle gange kan selv de mest avancerede GPU'er ødelægge alt. RTX 20-serien blev lanceret i 2018 på toppen af ​​Nvidias seks-årige dominans. På trods af AMD's manglende konkurrenceevne, havde Nvidia altid gjort godt for at levere en 30-50% forbedring i værdi hver generation. Med 20-serien besluttede Nvidia sig dog for at gøre noget anderledes.

I sidste ende har RTX 20-serien været et stort vendepunkt i gaming GPU-historien og på den værst mulige måde.

Som verdens første gaming-GPU'er, der understøtter hardware-accelereret ray-tracing i realtid og opskalering af AI-opløsning, mente Nvidia, at det var berettiget til at hæve priserne. 20-serien var trods alt mange, mange gange hurtigere end den tidligere 10-serie med ray tracing og DLSS, så det ville stadig være en stor værdi, ikke? Desværre var der bogstaveligt talt ingen spil med nogen af ​​teknologierne før 2019. Så på lanceringsdagen var RTX 2080 i det væsentlige blot endnu en GTX 1080 Ti (med mindre VRAM). Techspot var ikke imponeret, og siger "vi får GTX 1080 Ti-lignende ydeevne til en prisstigning på 20 %."

Selvom jeg har fremhævet RTX 2080 her, var RTX 2070 og RTX 2060 omtrent lige så dårlige, og de tilbyder stort set intet i vejen for faktiske værdiforbedringer. Løfter om, at visse spil fik ray tracing og DLSS, blev også jævnligt brudt i 2018 og 2019. Nvidia rettede til sidst op på situationen ved at lancere RTX 20 Super-serien et halvt år senere, ligesom Nvidia udgav GTX 500-serien et halvt år efter GTX 400-serien. Men i sidste ende har RTX 20-serien været et stort vendepunkt i gaming GPU-historien og på den værst mulige måde.

4 AMD Radeon VII: Det glemte AMD-flagskib

Kilde: AMD

Selvom RTX 20-serien på ingen måde var en fantastisk produktlinje, satte den stadig AMD endnu længere bagud, fordi nye RTX 2080 Ti var hele 30 % hurtigere end GTX 1080 Ti, og AMD's RX Vega 64 matchede kun GTX 1080 (sans Ti). Noget skulle gøres, men AMDs kommende kort, der bruger 7nm Navi-designet, ville først være tilgængelige i midten af ​​2019. Men så indså nogen hos AMD noget: de havde allerede en 7nm GPU, en 7nm version af Vega lavet til datacentre. Det ville ikke slå 2080 Ti, men noget er bedre end ingenting, ikke?

Nå, Radeon VII ville sandsynligvis have været bedre, hvis den ikke eksisterede. Ligesom 14nm Vega 56 og 64 var den ret ineffektiv og selvom det nogenlunde matchede RTX 2080, det gjorde den, mens den forbrugte omkring 70 watt mere. Den understøttede heller ikke strålesporing eller opskaleringsteknologi, og kirsebæret på toppen var dens prisskilt på $700, som var det samme som 2080.

AMD tabte sandsynligvis penge på Radeon VII, og det var ikke engang en god GPU!

Men måske det værste for AMD var, at da dette var en datacenter-GPU, kom den med 16 GB ekstremt dyr HBM2-hukommelse. AMD tabte sandsynligvis penge på Radeon VII, og det var ikke engang en god GPU!

Fordi RX 5700 XT lanceret blot et par måneder senere til $400 og havde omkring 90% af ydeevnen af ​​Radeon VII, er dette tidligere GPU-flagskib stort set blevet glemt, og det er der god grund til. Det tilføjede ikke noget nyt, og dets navn var forfærdeligt. Seriøst, Radeon VII er et forfærdeligt produktnavn. Jeg gætter på, at AMD er ret flov over det hele, fordi dens officielle produktside siden er blevet slettet fra virksomhedens hjemmeside.

5 Intel Xe LP: Intels store integrerede GPU, der bare ikke kunne vinde

Kilde: Intel

For at kunne tale om Intels første og værste gaming GPU, er vi nødt til at træde tilbage et øjeblik. Tilbage i 2015 gennemførte Intel et stort kup ved at rekruttere AMD Vice President Ari Rauch til at stå i spidsen for udviklingen af ​​en ny grafikarkitektur. Denne GPU skulle ikke gå head-to-head med high-end eller endda mellemklassekort, men var beregnet til at blive parret med en fremtidig Intel CPU. Som en integreret GPU skulle den tage et skud på Nvidias MX laptop-chips og AMD's APU'er, og hvis det lykkes, ville det være fantastisk for Intel og dårligt for dets rivaler.

I 2018 ville Intel gennemføre endnu et kup i form af Raja Koduri, der sagde sit job op som leder af AMD's Radeon-afdeling til at slutte sig til Intel som chefarkitekt, og han havde ambitioner ud over integrerede grafik. Han udvidede omfanget af Intels grafikplaner og begyndte desuden udvikling af diskrete spilkort og datacenter GPU'er til den kraftfulde integrerede grafik, der skaber Xe-serien med Xe LP i bunden, Xe HP i midten og Xe HPC i toppen. Xe LP ville debutere på Intels 10nm-node og ville også få en diskret GPU-version.

Det var grusomt at bringe denne stakkels lille GPU ind i sådan en fjendtlig verden.

Den første generation af Intels splinternye integrerede grafik debuterede med Ice Lake U CPU'er i 2019, og den slog faktisk AMD's Ryzen 3000 APU'er. Dette var dog kun begyndelsen, og Tiger Lake U-chips med en fuldt integreret GPU blev lanceret sent 2020. Men på trods af, at den har 50 % flere kerner end iGPU'en i Ice Lake, var Tiger Lake U integreret grafik kasseret af AMD's Ryzen 4000 APU'er, og var ikke i nærheden af ​​at gøre Nvidias MX GPU'er forældede. DG1, virksomhedens første diskrete gaming GPU nogensinde, var også ret dårlig og matchede knap GTX 1030.

Rauch nåede kun at overvåge lanceringen af ​​Ice Lake U's iGPU, før han blev fyret i begyndelsen af ​​2020. Intel har ikke opdateret sin integrerede grafik siden. Xe LP var en fiasko, ikke bare fordi designet var tydeligt dårligt, men sikkert også fordi Xe HP og Xe HPC fik mere opmærksomhed. Da Arc Alchemist er så anstændigt, som det er, er det svært at bebrejde Intel for at ofre Xe LP. Jeg vil sige, at det var absolut unødvendigt at lave DG1, og det var grusomt at bringe denne stakkels lille GPU ind i sådan en fjendtlig verden.

6 AMD Radeon RX 6500 XT: Parrer sig dårligst med AMDs egne CPU'er

Kilde: XFX

GPU-manglen, der begyndte i 2020, var katastrofal. Grafikkort var utroligt dyre, og nogle lancerede ikke engang med MSRP'er, da det ikke betød noget længere. Folk med et budget blev ramt værst, fordi AMD og Nvidia ikke lancerede nye low-end-kort, og de gamle fra tidligere generationer skulle op til firdoble den oprindelige pris. Men da GPU-manglen begyndte at aftage i begyndelsen af ​​2022, fik AMD endelig lanceret nogle entry-level GPU'er, og selvom baren var super lav, lykkedes det på en eller anden måde ikke at klare den.

RX 6500 XT var ikke en normal gaming-GPU. Den blev oprindeligt designet til bærbare computere og forbrugte derfor meget lidt strøm og tilbød meget lidt ydeevne, omtrent lig med RX 480 fra 2016. For de $200-$250, den blev lanceret for, var dette ikke så forfærdeligt, og 6500 XT er siden faldet til omkring $150. Men fordi 6500 XT blev lavet til at blive parret med bærbare computere, der bruger Ryzen 6000 APU'er med PCIe 4.0, besluttede AMD kun at tilbyde fire PCIe-baner, og hvis du kørte 6500 XT i PCIe 3.0-tilstand, præstationen var forfærdelig.

AMD fik endelig lanceret nogle entry-level GPU'er, og selvom baren var super lav, lykkedes det på en eller anden måde ikke at rydde den.

Det, der skubber 6500 XT over stregen i varmt skrald, er, at virksomhedens budget Ryzen CPU'er, som blev lanceret på nøjagtig samme tidspunkt, ikke understøtter PCIe 4.0, da de var genbrugte APU'er, der kun havde PCIe 3.0. AMD penny klemte så hårdt, at parring af en AMD CPU med en Radeon GPU var en dårlig ide. 6500 XT giver meget mere mening med en low-end Intel 12. eller 13. generations chip. Det ville være meget sjovere, hvis det ikke bogstaveligt talt var det eneste ny GPU under $200 dog faktisk værd at købe.

7 Nvidia GeForce RTX 3050: Et uoverkommeligt entry-level-kort

Nvidia har taget en anden tilgang end AMD, når det kommer til budgetsegmentet, hvilket er at lade som om, at det simpelthen ikke eksisterer. Dette var egentlig ikke et stort problem under GPU-manglen, da stort set alle GPU'er solgte for et ekstra hundrede dollars alligevel, men da tingene begyndte at lette, blev det klart, at RTX 3050 var et forfærdeligt indgangskort til en uoverkommelig pris.

Lancering omkring en uge efter 6500 XT i begyndelsen af ​​2022, virkede 3050 først som en anstændig nok GPU, med bang-for-buck nogenlunde lig med RX 6600, som var 30 % hurtigere, men også omkring 30 % mere dyrt. I løbet af 2022 blev alle GPU'er solgt til lavere og lavere priser, efterhånden som manglen ryddet op, og da RTX 30 GPU'er til sidst stoppede med at falde i pris i midten til slutningen af ​​2022, fortsatte AMD-kortene. I dag fås de billigste RTX 3050'ere kun for lige under 300 $, mens den meget hurtigere RX 6600 kan findes for lidt over 200 $.

Én ting er, at RX 6500 XT er en dårlig budget GPU, men i det mindste er det en ny GPU, der er tilgængelig for $150. Nvidia har lige opgivet at lave entry-level GPU'er ved at lancere 3050, som ikke engang er et godt kort i sig selv med nuværende priser. Selvfølgelig vil Nvidia sige, at præmien er det værd, fordi du får DLSS, men selv med DLSS aktiveret, kan 3050 kun matche eller næppe overgå RX 6600 for næsten $100 mere. 3050 er symptomatisk for den retning, Nvidia har gået siden RTX 20-serien, og den viser ingen tegn på at ændre kurs.

Konkurrencen om det dårligste grafikkort bliver endnu hårdere

Tingene er ikke helt så dystre med den seneste generation af GPU'er, som jeg troede, de ville være. Jeg sagde engang, at RTX 4070 kunne koste lige så meget som RX 7900 XTX (det er $400 billigere), og at RTX 4060 ville være mindst $400 (det er $300). Men selvom værdien ikke bliver dårligere, er det stadig ret forfærdeligt, at det ikke bliver bedre. Det er også ret alvorligt, når entry-level GPU'er nu starter ved omkring $300, da de plejede at starte ved så lidt som $100. Desktop PC-spil bliver hurtigt uoverkommeligt.

Dagene med gode værdiforbedringer fra generation til generation er for længst forbi; vi må nøjes med måske en forbedring på 10 % i bang for buck hvert eller andet år. AMD og Nvidia er i et kapløb om bunden for at se, hvilket firma der kan få folk til at betale mest for det dårligste grafikkort. Hvis du har råd til de stadigt stigende præmier for gode grafikkort, så er det fantastisk. Men for alle andre, der ikke kan betale hundredvis af dollars for den samme ydeevne, som vi fik sidste generation, er det bare ærgerligt.