Nvidia lägger inte tillräckligt med VRAM på sina GPU: er, och det är en katastrof som väntar på att hända

Många av Nvidias senaste kort är ihopkopplade med en oroväckande liten mängd minne, och det kan bli problematiskt för användarna.

Folk har kritiserat Nvidia för några saker: höga GPU-priser, dåliga namn på grafikkort, skapa ett slutet ekosystem och så vidare. Jag skrev nyligen ett inlägg om hur RTX 40:s prissättning skadar spel på stationära datorer, så jag är inte främmande för att ringa upp Nvidia (eller något företag, för den delen). Ändå fanns det ett klagomål som jag inte alltid höll med om: att Nvidia GPU: er inte kom med tillräckligt VRAM. Jag har alltid trott att Nvidia skulle veta bättre än att snåla med VRAM. Den borde veta vad den gör, eller hur?

Tja, det verkar en gång jag gav Nvidia fördelen av tvivel, att det var en dålig idé. Testdata från granskare visar att kort i RTX 30-serien kan få slut på VRAM i några av de senaste AAA-spelen, vilket resulterar i sämre prestanda än väntat. Det är inte bara en hemsk present för RTX 30-ägare, utan kanske en blick in i framtiden för människor som äger RTX 40 GPU: er, varav de flesta jag oroar mig för inte har tillräckligt med minne för grafiskt intensiva spel, höga upplösningar och ray spårning.

En historia av Nvidia GPU: er och VRAM, och varför RTX 40-kort ser så oroande ut

Bara genom att titta på ett specifikationsblad är det inte direkt lätt att avgöra om en GPU har tillräckligt med VRAM eller inte. Benchmarking skulle uppenbarligen avslöja den informationen, men även om resultaten kan se bra och snygga ut på granskningsdagen, kan det snabbt förändras när mer moderna spel med högre VRAM-krav lanseras. När det händer har miljontals människor köpt nya GPU: er. För sammanhanget, låt oss ta en titt på det senaste decenniet och utvärdera Nvidias meritlista. Vi sammanställde data nedan om hur mycket minne Nvidia har lagt på sina GPU: er efter generation och klass, från toppklassen Titan (må den vila i frid) till 90-klassens kort och den mer mellanklassiga 60-klassen modell.

10-serien

20-serien

30-serien

40-serien

Titan/90 klass

12 GB

24 GB

24 GB

24 GB

80 Ti klass

11 GB

11 GB

12 GB

20 GB*

80 klass

8 GB

8 GB

10 GB

16 GB

70 Ti klass

8 GB

N/A

8 GB

12 GB

70 klass

8 GB

8 GB

8 GB

12 GB

60 Ti klass

N/A

N/A

8 GB

8/16 GB

60 klass

6 GB

6 GB

12 GB

8 GB

* Ryktet specifikation

Vad som kan förvåna dig är att från 10-serien till 30-serien ändrade Nvidia knappast mängden VRAM per klass, med endast RTX 3060 som ett anmärkningsvärt undantag.

Du kan också se att RTX 40-serien faktiskt ger en stor stöt i VRAM över hela linjen, så du kanske tror att de flesta borde vara bra även om gamla RTX 30-seriekort kämpar. Visst, det är dåligt för människor som äger ett 30-seriekort, men åtminstone 40-serien kommer inte att ha samma problem tack vare allt det extra VRAM. Tja, jag är inte så säker, speciellt när man räknar in prestandavinster från generation till generation.

10-serien

20-serien

30-serien

40-serien

Titan/90 klass

122%

N/A

116%

71%

80 Ti klass

108%

84%

59%

N/A

80 klass

100%

72%

55%

60%

70 Ti klass

105%

N/A

54%

57%

70 klass

118%

86%

58%

66%

60 Ti klass

N/A

N/A

67%

N/A

60 klass

119%

75%

127%

N/A

Jag har sammanställt en tabell här som bygger på TechPowerUp GPU-prestandadatabas (som visserligen är ofullkomlig för att jämföra så många olika kort) för att härleda minne-till-prestanda-förhållandet för varje kort. Eftersom högre prestanda motiverar att lägga till mer minne, bör du förvänta dig att se detta förhållande gå upp, förbli oförändrat eller bara minska ibland för varje klass. Men det är ganska tydligt att förhållandet har gått ner i flera år, och RTX 30-serien är på en låg nivå. Ännu värre, RTX 40-serien är inte mycket bättre.

Testdata indikerar redan starkt att 3070, 3070 Ti och 3080 inte har tillräckligt med VRAM för moderna titlar. Techspot2023 omtest av 3070 och 3080 avslöjade att de kan få slut på VRAM i AAA-spel med ray tracing aktiverad, även om 3070 hade slut på VRAM även om den var inaktiverad. Och det handlar inte enbart om spel som kom ut 2023 heller; lanseringsdag 3070 Ti recensioner från ArsTechnica och ExtremeTech visa dålig prestation i ett par matcher som kom ut 2020.

På inget sätt kommer grafikprocessorer som RTX 4070 Ti garanterat att stöta på minnesproblem, men data ser inte bra ut. Dessutom är de scenarier där 30-seriens kort stöter på problem när man använder grafiskt intensiva inställningar, som ägare av 40-serien är mer benägna att vilja aktivera eftersom deras kort har fler hästkrafter än äldre modeller.

Nvidia kanske för en gångs skull ångrar att hon klippte hörn på VRAM

GDDR6-minne kom ut 2018, och när det är fem år gammalt kommer det att bli billigare än det någonsin har varit. Till och med AMD har råd att lägga mer minne på sina kort med högre prestanda samtidigt som de säljer dem för mindre. Det är inte som att Radeon är en lukrativ verksamhet, och stackars gamla Nvidia kan helt enkelt inte budgetera ut ett par extra gigabyte per kort. Nvidia bestämde sig medvetet för att snåla med minnet med 20-, 30- och 40-serien, och den här gången är jag inte säker på om Nvidia kommer att komma undan med det.

Nvidia har redan en dålig historia när det kommer till kort och VRAM (till den grad att förlora en rättegång över ett särskilt dåligt exempel), och AMD har slagit på trumma om VRAM under större delen av 2023. Dessutom är några av de senaste AAA-spelen som har kommit ut inte precis superoptimerade, vilket illustreras av Techspots riktmärken, och användare börjar förstås bli skeptiska till Nvidia-kort. Kanske är det därför som RTX 4060 Ti kommer med ett 16GB-alternativ, men Nvidia borde erbjuda samma sak för andra GPU: er.

40-serien är redan något impopulär för att vara extremt dyr, och om den stöter på VRAM-problem i framtiden kan den göra en allvarlig skada på Nvidias trovärdighet. Att ladda mer samtidigt som du bara erbjuder lite mer minne är redan illa nog, men prestandaproblem som uppstår på grund av minnesproblem skulle vara en PR-mardröm. Vi får bara vänta och se om "GDDRmageddon" någonsin händer, och för RTX 40 GPU-ägares skull hoppas jag verkligen att det inte gör det.