7 slechtste GPU's aller tijden

click fraud protection

Er zijn slechte GPU's en er zijn GPU's die we nooit zullen vergeten vanwege hoe rampzalig ze waren.

Het is niet moeilijk om een ​​slechte GPU te krijgen. Het moet gewoon een slechte waarde hebben, een of ander verlammend nadeel, of gewoon een teleurstelling zijn. Er zijn tal van kaarten die een of twee van deze kenmerken belichamen, maar af en toe zijn we getuige van magische momenten waarop een grafische kaart alle drie raakt.

Of we het nu over hebben de beste GPU's aller tijden of het ergste, het is best moeilijk om de winnaars (of verliezers in dit geval) terug te brengen tot slechts zeven. Gelukkig ben ik een beetje een kenner verschrikkelijke grafische kaarten En PC-hardware in het algemeen, dus hier zijn mijn keuzes voor de slechtste GPU's die ooit zijn gelanceerd.

1 Nvidia GeForce GTX 480: De 'G' in GPU staat voor grill

Bron: Hyins

In het decennium na de opkomst van de moderne grafische kaart waren er niet veel slechte en als die er waren, hadden ze een minimale impact omdat de industrie zo snel terugging Dan. Het kwam vrij vaak voor dat GPU's van de volgende generatie hun voorgangers met meer dan 50% versloegen, en 100% of meer was niet zeldzaam. Maar tegen 2010 werd het ingewikkelder, vooral voor Nvidia. Het probeerde een enorme GPU te maken op TSMC's 40nm, die een beetje kapot was. Het eindresultaat was Nvidia's ergste technologische blunder ooit: Fermi, die de GTX 480 aandreef.

Omdat de 400-serie vanwege die problemen moest worden uitgesteld, had AMD eind 2009 met zijn Radeon HD 5000-serie de prestatiekroon van Nvidia overgenomen en zes maanden vastgehouden. De 480 won de kroon met een voorsprong van 10% op de Radeon HD 5870, maar voor een vreselijke prijs: $ 500, vergeleken met de $ 380 van de 5870. En dat was gewoon de letterlijk verschrikkelijke prijs; het werd nog duurder gezien het enorme stroomverbruik van de 480. In van Anandtech testen, verbruikte de kaart meer dan 200W onder belasting en werd hij meer dan 90 graden Celsius. Als je ooit hebt gehoord van "de manier waarop het bedoeld is om gegrild te worden", dan is dit waar het naar verwees.

De GTX 480 was veel te heet, veel te luid en veel te duur.

Het volstaat te zeggen dat de GTX 480 het ondanks zijn prestaties niet heeft gehaald. Het was veel te warm, veel te luid en veel te duur. Nvidia haastte zich slechts een half jaar later snel met de GTX 500-serie en profiteerde van de toegenomen volwassenheid van het 40nm-knooppunt en verbeteringen op architectuurniveau om de efficiëntie te vergroten. Een processor is onmiskenbaar slecht als deze na maanden in plaats van jaren moet worden vervangen, en de GTX 400-serie is een van de kortst bestaande productlijnen in de GPU-geschiedenis.

2 AMD Radeon R9 390X: overblijfselen van twee jaar oud

Bron: MSI

Een paar jaar na het GTX 480-debacle werd alles weer normaal. Nvidia slaagde erin om aan de top te blijven met de GTX 500-serie, maar vanaf 2012 werd de markt weer competitief, waarbij Nvidia eind 2013 zijn voet aan de grond verloor aan AMD's R9 290X. Dus daar stond AMD, aan de top van de wereld na weer een lange strijd om weer op de eerste plaats te komen. Wat was de volgende stap voor deze underdog met een nieuw leven ingeblazen?

Financiële onrust en mogelijk faillissement, zo blijkt. Hoewel AMD's GPU's meestal behoorlijk concurrerend waren met die van Nvidia, maakten ze geen winst, en tegen de tijd dat de 290X uitkwam, had het bedrijf eigenlijk geen geld meer voor R&D. De volgende generatie GPU's kwam pas in 2015 uit, meer dan een jaar na Nvidia's legendarische GTX 900-serie, maar de "nieuwe" Radeon 300-serie die in 2015 werd gelanceerd, was allesbehalve. Het was letterlijk een kopie van de 200-serie met kleine aanpassingen.

De 300-serie was niet de GPU die AMD nodig had om in 2015 te lanceren.

Een bijzonder slechte toevoeging was de R9 390X, een omgedoopte 290X. Ondanks het hoge stroomverbruik van meer dan 300 W onder volledige belasting, waren de recensies enigszins positief en werd het als een goedkoper alternatief voor de GTX 980 beschouwd. Ik ben er echter niet zo zeker van dat de testgegevens die conclusie ondersteunen. TechPowerUp ontdekte dat de 390X alleen de 980 kon evenaren in 4K, waar de framerate meestal minder was dan 60 FPS en soms minder dan 30 FPS. Ondertussen kwam de GTX 970 overeen met de 390X op 1080p voor $ 100 minder, waardoor het een veel betere deal is (en niet te vergeten efficiënter).

De 300-serie was niet de GPU die AMD nodig had om in 2015 te lanceren. Het was een jaar te laat en bijna precies wat mensen in 2013 kregen. AMD lanceerde ook de R9 Fury en R9 Fury X, die eigenlijk nieuwe vlaggenschipkaarten waren, maar het creëerde niet helemaal het 290X-moment. AMD zou jarenlang geen echte poging doen om de prestatiekroon te heroveren.

3 Nvidia GeForce RTX 2080: het begin van het einde

Bron: Nvidia

Technologische blunders zijn vaak de oorzaak van verschrikkelijke grafische kaarten, maar soms kunnen zelfs de meest geavanceerde GPU's alles verpesten. De RTX 20-serie werd gelanceerd in 2018 op het hoogtepunt van Nvidia's zesjarige heerschappij. Ondanks het gebrek aan concurrentievermogen van AMD, had Nvidia er altijd goed aan gedaan om elke generatie een verbetering van 30-50% in waarde te leveren. Met de 20-serie besloot Nvidia echter iets anders te doen.

Uiteindelijk is de RTX 20-serie een belangrijk keerpunt geweest in de geschiedenis van gaming-GPU's en op de slechtst mogelijke manier.

Als 's werelds eerste gaming-GPU's die hardwareversnelde real-time raytracing en opschaling van AI-resolutie ondersteunen, vond Nvidia het gerechtvaardigd om de prijzen te verhogen. De 20-serie was tenslotte vele, vele malen sneller dan de vorige 10-serie met ray tracing en DLSS, dus het zou nog steeds van grote waarde zijn, toch? Helaas waren er tot 2019 letterlijk geen games met beide technologieën. Dus op de lanceringsdag was de RTX 2080 in wezen gewoon een andere GTX 1080 Ti (met minder VRAM). Techspot was niet onder de indruk, zeggend "we krijgen GTX 1080 Ti-achtige prestaties voor een prijsstijging van 20%."

Hoewel ik hier de RTX 2080 heb uitgekozen, waren de RTX 2070 en de RTX 2060 ongeveer net zo slecht, en boden eigenlijk niets in de weg van daadwerkelijke waardeverbeteringen. Beloften dat bepaalde games ray tracing en DLSS zouden krijgen, werden ook regelmatig verbroken in 2018 en 2019. Nvidia heeft de situatie uiteindelijk rechtgezet door een half jaar later de RTX 20 Super-serie te lanceren, net zoals Nvidia de GTX 500-serie een half jaar na de GTX 400-serie uitbracht. Maar uiteindelijk is de RTX 20-serie een belangrijk keerpunt geweest in de geschiedenis van gaming-GPU's en op de slechtst mogelijke manier.

4 AMD Radeon VII: het vergeten vlaggenschip van AMD

Bron: AMD

Hoewel de RTX 20-serie geenszins een geweldige productlijn was, zette het AMD toch nog verder achter omdat de nieuwe RTX 2080 Ti was maar liefst 30% sneller dan de GTX 1080 Ti, en AMD's RX Vega 64 kwam alleen overeen met de GTX 1080 (zonder Ti). Er moest iets gebeuren, maar de aankomende kaarten van AMD met het 7nm Navi-ontwerp zouden pas medio 2019 beschikbaar zijn. Maar toen besefte iemand bij AMD iets: ze hadden al een 7nm GPU, een 7nm-versie van Vega gemaakt voor datacenters. Het zou de 2080 Ti niet verslaan, maar iets is beter dan niets, toch?

Nou, de Radeon VII was waarschijnlijk beter af geweest als hij niet bestond. Net als de 14nm Vega 56 en 64 was het behoorlijk inefficiënt en hoewel het ongeveer overeenkwam met de RTX 2080, deed het dit terwijl het ongeveer 70 watt meer verbruikte. Het ondersteunde ook geen ray tracing of opschalingstechnologie, en de kers op de taart was het prijskaartje van $ 700, hetzelfde als de 2080.

AMD heeft waarschijnlijk geld verloren aan de Radeon VII en het was niet eens een goede GPU!

Maar misschien was het ergste voor AMD dat, aangezien dit een datacenter-GPU was, deze werd geleverd met 16 GB extreem duur HBM2-geheugen. AMD heeft waarschijnlijk geld verloren aan de Radeon VII en het was niet eens een goede GPU!

Omdat de RX 5700 XT slechts een paar maanden later werd gelanceerd voor $ 400 en ongeveer 90% van de prestaties van de Radeon VII had, is dit voormalige GPU-vlaggenschip grotendeels vergeten, en terecht. Het voegde niets nieuws toe en de naam was verschrikkelijk. Serieus, Radeon VII is een vreselijke productnaam. Ik denk dat AMD zich behoorlijk schaamt voor de hele zaak, omdat de officiële productpagina sindsdien van de website van het bedrijf is verwijderd.

5 Intel Xe LP: Intel's grote geïntegreerde GPU die gewoon niet kon winnen

Bron: Intel

Om te praten over de eerste en slechtste gaming-GPU van Intel, moeten we even een stapje terug doen. In 2015 deed Intel een grote coup door AMD Vice President Ari Rauch aan te trekken om de ontwikkeling van een nieuwe grafische architectuur te leiden. Deze GPU was niet bedoeld om het op te nemen tegen high-end of zelfs midrange-kaarten, maar was bedoeld om te worden gecombineerd met een toekomstige Intel CPU. Als geïntegreerde GPU zou het een schot moeten wagen op Nvidia's MX-laptopchips en AMD's APU's, en als het succesvol zou zijn, zou het geweldig zijn voor Intel en slecht voor zijn rivalen.

In 2018 zou Intel opnieuw een staatsgreep plegen in de vorm van Raja Koduri, die zijn baan als leider van AMD's Radeon-divisie om zich bij Intel aan te sluiten als hoofdarchitect, en hij had ambities die verder gingen dan geïntegreerd afbeeldingen. Hij breidde de reikwijdte van Intel's grafische plannen uit en begon daarnaast met de ontwikkeling van afzonderlijke gamekaarten en datacenter-GPU's tot de krachtige geïntegreerde grafische kaart, waardoor de Xe-reeks ontstond met Xe LP onderaan, Xe HP in het midden en Xe HPC bovenaan. Xe LP zou debuteren op Intels 10nm-node en zou ook een discrete GPU-versie krijgen.

Het was wreed om deze arme kleine GPU in zo'n vijandige wereld te brengen.

De eerste generatie van Intel's gloednieuwe geïntegreerde grafische kaart debuteerde in 2019 met Ice Lake U-CPU's en versloeg AMD's Ryzen 3000 APU's. Dit was echter nog maar het begin en Tiger Lake U-chips met een volledig geïntegreerde GPU kwamen laat op de markt 2020. Maar ondanks dat het 50% meer kernen had dan de iGPU in Ice Lake, waren Tiger Lake U geïntegreerde graphics vernietigd door AMD's Ryzen 4000 APU's, en kwam bij lange na niet in de buurt van het overbodig maken van Nvidia's MX GPU's. DG1, de eerste discrete gaming-GPU van het bedrijf ooit, viel ook best mee en kwam nauwelijks overeen met de GTX 1030.

Rauch mocht alleen toezicht houden op de lancering van de iGPU van Ice Lake U voordat hij begin 2020 werd ontslagen. Intel heeft sindsdien zijn geïntegreerde grafische kaart niet meer bijgewerkt. Xe LP was een mislukking, niet alleen omdat het ontwerp duidelijk slecht was, maar waarschijnlijk ook omdat Xe HP en Xe HPC meer aandacht kregen. Nu Arc Alchemist zo fatsoenlijk is als het is, is het moeilijk Intel de schuld te geven van het opofferen van Xe LP. Ik zal zeggen dat het maken van DG1 absoluut niet nodig was, en het was wreed om deze arme kleine GPU in zo'n vijandige wereld te brengen.

6 AMD Radeon RX 6500 XT: paren het slechtst met AMD's eigen CPU's

Bron: XFX

Het GPU-tekort dat in 2020 begon, was desastreus. Grafische kaarten waren ongelooflijk duur en sommige werden niet eens gelanceerd met MSRP's, aangezien dat niets meer betekende. Mensen met een beperkt budget werden het zwaarst getroffen, omdat AMD en Nvidia geen nieuwe low-end kaarten lanceerden en de oude van vorige generaties tot wel vier keer de oorspronkelijke prijs gingen kosten. Maar toen het GPU-tekort begin 2022 begon af te nemen, kwam AMD er eindelijk toe om enkele GPU's op instapniveau te lanceren, en hoewel de lat superlaag was, slaagde het er op de een of andere manier niet in om deze te wissen.

De RX 6500 XT was geen normale gaming-GPU. Het was oorspronkelijk ontworpen voor laptops en verbruikte daarom zeer weinig stroom en bood zeer weinig prestaties, ongeveer gelijk aan de RX 480 uit 2016. Voor de $ 200- $ 250 waarvoor het werd gelanceerd, was dit niet zo erg, en de 6500 XT is sindsdien gedaald tot ongeveer $ 150. Omdat de 6500 XT echter is gemaakt om te worden gekoppeld aan laptops met Ryzen 6000 APU's met PCIe 4.0, besloot AMD om slechts vier PCIe-banen aan te bieden, en als je de 6500 XT in PCIe 3.0-modus zou gebruiken, de uitvoering was verschrikkelijk.

AMD is er eindelijk in geslaagd om enkele instap-GPU's te lanceren, en hoewel de lat superlaag was, kon het op de een of andere manier niet worden gewist.

Wat de 6500 XT over de streep duwt, is dat de budget Ryzen-CPU's van het bedrijf, die op exact hetzelfde moment werden gelanceerd, dat niet deden ondersteunen PCIe 4.0 omdat het gerecyclede APU's waren die alleen PCIe 3.0 hadden. De cent van AMD kneep zo hard dat het koppelen van een AMD CPU met een Radeon GPU een slechte zaak was idee. De 6500 XT is veel logischer met een low-end Intel 12e of 13e generatie chip. Het zou veel grappiger zijn als het niet letterlijk de enige was nieuwe GPU onder $200 eigenlijk de moeite waard om te kopen.

7 Nvidia GeForce RTX 3050: een onbetaalbare instapkaart

Nvidia heeft een andere aanpak gekozen dan AMD als het gaat om het budgetsegment, namelijk net doen alsof het niet bestaat. Dit was niet echt een probleem tijdens het GPU-tekort, aangezien vrijwel elke GPU voor honderd dollar extra werd verkocht hoe dan ook, maar toen de zaken eenmaal wat gemakkelijker begonnen te worden, werd het duidelijk dat de RTX 3050 een vreselijke instapkaart was voor een onbetaalbaar prijs.

De 3050, die ongeveer een week na de 6500 XT begin 2022 werd gelanceerd, leek in eerste instantie een goed genoeg GPU, met waar voor je geld ongeveer gelijk aan de RX 6600, die 30% sneller was maar ook ongeveer 30% meer duur. In de loop van 2022 werden alle GPU's tegen steeds lagere prijzen verkocht naarmate het tekort oploste. en toen RTX 30 GPU's halverwege tot eind 2022 uiteindelijk niet meer in prijs daalden, bleven AMD-kaarten doorgaan. Tegenwoordig zijn de goedkoopste RTX 3050's alleen beschikbaar voor iets minder dan $ 300, terwijl de veel snellere RX 6600 te vinden is voor iets meer dan $ 200.

Het is één ding dat de RX 6500 XT een GPU met een slecht budget is, maar het is tenminste een nieuwe GPU die beschikbaar is voor $ 150. Nvidia gaf het gewoon op met het maken van GPU's op instapniveau door de 3050 te lanceren, wat op zichzelf niet eens een goede kaart is met de huidige prijzen. Natuurlijk zal Nvidia zeggen dat de premie het waard is omdat je DLSS krijgt, maar zelfs als DLSS is ingeschakeld, kan de 3050 de RX 6600 voor bijna $ 100 meer evenaren of nauwelijks overtreffen. De 3050 is symptomatisch voor de richting die Nvidia is ingeslagen sinds de RTX 20-serie en vertoont geen tekenen van koerswijziging.

De strijd om de slechtste grafische kaart wordt nog heviger

Dingen zijn niet zo somber en onheilspellend met de nieuwste generatie GPU's als ik dacht dat ze zouden zijn. Ik heb ooit gezegd dat de RTX 4070 misschien evenveel kost als de RX 7900 XTX (het is $ 400 goedkoper) en dat de RTX 4060 minstens $ 400 zou kosten (het is $ 300). Maar ook al wordt de waarde niet slechter, het feit dat het niet beter wordt, is nog steeds behoorlijk verschrikkelijk. Het is ook behoorlijk serieus als GPU's op instapniveau nu beginnen bij ongeveer $ 300, terwijl ze vroeger begonnen bij slechts $ 100. Desktop-pc-gaming wordt snel onbetaalbaar.

De dagen van goede waardeverbeteringen van generatie op generatie zijn allang voorbij; we zullen genoegen moeten nemen met misschien een verbetering van 10% in waar voor ons geld elk jaar of twee. AMD en Nvidia zijn in een race om de bodem om te zien welk bedrijf mensen het meest kan laten betalen voor de slechtste grafische kaart. Als je de steeds hogere premies voor goede grafische kaarten kunt betalen, dan is dat geweldig. Maar voor alle anderen die geen honderden dollars kunnen uitgeven voor dezelfde prestaties als de vorige generatie, is het gewoon klote.