Vad hände med multi-GPU-spel?

Att ha två eller flera grafikprocessorer brukade vara toppen av PC-spel, men nu är det ett minne blott. Vad hände?

Fram till mitten av 2010-talet använde de snabbaste speldatorerna flera grafikkort, vanligtvis två men ibland upp till fyra. Sedan, några av bästa gaming grafikkort använde två GPU-chip istället för bara ett, vilket hjälpte till med konsolideringen. Nvidias SLI och AMD: s CrossFire multi-GPU-teknologier sågs som höjdpunkten för alla avancerade speldatorer och kan lyfta din spelupplevelse till nästa nivå.

Idag är multi-GPU ett minne blott - praktiskt taget en kvarleva i datorvärlden. Det faktum att de flesta nya GPU: er idag inte ens stöder SLI eller CrossFire är verkligen ett problem, men det Populariteten för multi-GPU: er sjönk långt innan Nvidia och AMD faktiskt avbröt dessa tekniker. Här är historien om multi-GPU-spel och varför det inte stod emot tidens tand.

En kort historik över multi-GPU: er, från 3dfx till dess nedgång

Medan moderna grafikkort dök upp i början av 2000-talet ur rivaliteten mellan Nvidia och AMD, fanns det många fler spelare under 90-talet. Ett av dessa företag var 3dfx Interactive, som producerade den nostalgiska Voodoo-serien med grafikkort. För att få en konkurrensfördel beslutade företaget att två grafikkort kunde vara bättre än ett, och 1998 introducerade man sin Scan-Line Interleave-teknologi (SLI). Det var ett ganska genidrag från 3dfx sida eftersom det uppmuntrade mer GPU-försäljning och avrådde Voodoo-ägare från att byta till ett annat kort.

SLI introducerades dock precis när 3dfx var på väg mot konkurs, och företaget köptes till slut av Nvidia, som fick de immateriella rättigheterna till allt 3dfx ägde. Multi-GPU slutade för en kort stund att existera efter 3dfx-förvärvet, men Nvidia återinförde SLI (byte det officiella namnet till Scalable Link Interface) 2004 med sin GeForce 6-serie. Det fungerade i princip på samma sätt som det gjorde tidigare: Lägg till fler GPU: er, få mer prestanda. Men det fanns några innovationer med Nvidias uppfattning.

Medan 3dfx: s gamla SLI hade varje GPU att återge en rad pixlar en i taget ("skanningslinjen" i SLI), men Nvidias nya SLI introducerade två nya renderingsmetoder: split-frame rendering (SFR) och alternate-frame rendering (AFR). Med SFR renderar varje GPU en del av en enda bildruta, inte genom att dela upp ramen på mitten utan genom att ge varje GPU en lika intensiv bit att rendera. AFR, å andra sidan, låter varje GPU producera en ram i tur och ordning. Även om SFR är bra för att minska latens, tenderar AFR att få mest prestanda, om än med mycket sämre rampacing och stamning.

På samma sätt, 2005, introducerade ATI (som snart kommer att förvärvas av AMD) sin egen multi-GPU-teknik, kallad CrossFire, men det var en slags röra till en början. Med 3dfx- och Nvidia-kort behövde du bara två av samma GPU och en kabel eller brygga för att ansluta dem, men CrossFire krävde att du köpte ett speciellt "master"-kort utöver en vanlig grafik kort. Sedan, istället för att använda en brygga, använde du en konstig DVI-kabel som ansluts till båda korten. Det räcker med att säga att den första generationen av CrossFire var dåligt utförd. Det hjälpte inte att dess grafikprocessorer inte var fantastiska vid den tiden.

Men CrossFire kom verkligen till sin rätt med introduktionen av AMD: s (tidigare ATI: s) Radeon 3000 serien, som innehöll Radeon HD 3870 X2, världens första grafikkort med två GPU-chips på Det. AMD gick riktigt långt med hela detta koncept med dubbla GPU; dess Radeon 4000- och 5000-seriechips var faktiskt ganska små, så dual-GPU-grafikkort var mycket vettigt. HD 5970 från 2009, en av AMD: s bästa GPU: er genom tiderna, beskrevs ofta som för snabbt för att vara genomförbart. Efter detta började Nvidia också göra sina egna dual-GPU-kort.

Efter denna punkt började dock populariteten för multi-GPU att minska. Nvidia släppte konceptet med dubbla GPU för sina vanliga GPU: er efter GTX 690 2012 och släppte det helt efter GTX Titan Z 2014. Nvidia gjorde SLI exklusivt bara två år senare till sina GTX 1070, 1080 och 1080 Ti GPU: er, och det minskade också stödet från fyra grafikkort ner till två. SLI var på livsuppehåll efter detta, men det blev slutligen avskaffat 2020 med lanseringen av RTX 30-serien, varav endast 3090 stödde SLI. Men det spelade ingen roll eftersom Nvidia upphörde med SLI-drivrutinsstöd från 2021 och framåt.

Samtidigt fortsatte AMD att tillverka dubbla GPU-kort i åratal, och slutade bara med Pro Vega II 2019, som var ett exklusivt Apple Mac-kort. AMD sa till och med att två RX 480 i CrossFire var ett bra alternativ till Nvidias GTX 1080 2016. Men AMD gav så småningom upp CrossFire efter lanseringen av RX Vega 2017, vilket var det sista AMD-kortet som stödde det. Det verkar som att AMD också slutade tillverka drivrutiner med CrossFire-stöd per spel någon gång under 2017.

De många anledningarna till att multi-GPU dog ut

Multi-GPU-spel kom och gick ganska snabbt, allt med tanke på. Det var bara en betydande kraft efter 2004 med SLI och CrossFire, men på 2010-talet var det redan på nedgång. I slutändan var det riktningen som den grafiska industrin gick och hur spelare fann enstaka GPU-lösningar så mycket mer tilltalande som ringde dödsstöten.

GPU: er blev större för varje generation och växte så småningom ur multi-GPU

När 3dfx introducerade SLI var grafikkort små enheter med riktigt lågt strömförbrukning, inget som liknar de giganter vi ser idag. Grafikchips tenderade att vara cirka 100 mm2 stora på 90-talet och början av 2000-talet, men allt detta förändrades när ATI lanserade sin Radeon 9000-serien, som innehöll ett chip som var över 200 mm2, dubbelt så stort som allt som världen hade sett tidigare. Detta startade en GPU-kapprustning som ATI/AMD och Nvidia fortsatte att eskalera för varje generation.

Saken är den att större chips kräver mer kraft och bättre kylning, och även om ökat strömförbrukning inte riktigt påverkade inställningarna för flera GPU till en början, visade det sig så småningom vara ett betydande problem. Redan redan i GTX 480 hade grafikkort nått 250W-märket och två 480:or i SLI förbrukade otroligt mycket ström. Även om AMD lade stor vikt vid multi-GPU med sina HD 4000- och 5000-serier, var det egentligen bara för att det behövde något high-end för att gå mot Nvidias 480 och 580 eftersom AMD: s grafikkretsar var för mellanregister.

Från slutet av 2000-talet och framåt förbrukade nästan alla flaggskepp tillverkade av Nvidia och AMD minst 200W, ofta 250W. Det kanske inte är en slump att Nvidias sista vanliga dual-GPU-kort, 690, använde två GTX 680-chips, som hade en TDP på ​​endast 195W. Det enkla faktum att enstaka grafikprocessorer blev större och bättre gjorde SLI och CrossFire svårare och mindre tilltalande för användare, som vanligtvis inte ville att deras speldator också skulle vara en rymdvärmare och en jet motor.

Multi-GPU var buggig och krävde utvecklare, Nvidia och AMD för att investera resurser i det

Hårdvaratrender var ett problem för multi-GPU: s genomförbarhet, och det var även mjukvarutrender. Redan när SLI först introducerades var spel mycket enklare, och även 2004 års bästa spel, som t.ex. Halva livet 2, är ganska omärkliga jämfört med dagens spel, även om vi kan uppskatta hur bra de var när de kom ut. SLI och CrossFire krävde att Nvidia och AMD skapade speciella optimeringar för multi-GPU i sina drivrutiner för att uppnå bra prestanda, och då var detta ingen stor sak.

Men med tiden blev spel (och i förlängningen GPU: er) mer komplicerade, och det blev svårare att optimera för varje år. Även i titlar som hade officiellt stöd för multi-GPU var upplevelsen ofta undermålig på grund av sämre prestanda än normalt eller buggar. Under en kort tid 2016 hade jag två Radeon R9 380, och när jag spelade The Witcher 3, Jag såg ofta konstiga grafiska fel som ibland till och med täckte över viktiga funktioner som grottangångar, vilket gjorde spelet inte bara konstigt utan buggigt till den grad att det inte gick att spela.

I slutändan var det riktningen som den grafiska industrin gick och hur spelare fann enstaka GPU-lösningar så mycket mer tilltalande som ringde dödsstöten.

Den enda glimten av hopp om bättre mjukvarustöd för multi-GPU var DX12 och Vulkan, som skröt så kraftfullt stöd för flera GPU att du till och med kan använda flera GPU: er från olika leverantörer i en enda spel. Men detta överlät bara det arbete som Nvidia och AMD brukade göra i händerna på utvecklare, som inte kan vinna vad som helst genom att stödja multi-GPU-teknik, särskilt eftersom Nvidia och AMD fasade det ut. Så, mjukvarusidan av saker och ting fungerade inte heller för multi-GPU-spel.

Spelare behövde helt enkelt inte avancerade multi-GPU-inställningar

Även om saker och ting på hårdvaru- och mjukvarusidorna av ekvationen löste sig, kan spel med flera GPU ha varit dömt bara för att det var överdrivet. Även HD 5970 beskrevs som overkill, och det var bara med två mellanregister GPU-chips. Fortfarande var multi-GPU bara populär nog att fortsätta i flera år, men jag tror att dess öde avgjordes av en enda händelse: lanseringen av GTX 1080 2016.

Nvidias GTX 10-serie var egentligen bara GTX 9-serien på den helt nya 16nm från TSMC, men bara det var en stor grej eftersom Nvidia hade lagt hela tre generationer på 28nm p.g.a. nedgången av Moores lag. Att gå från 28nm till 16nm resulterade i att GTX 1080 var över 50 % snabbare än GTX 980 och 30 % snabbare än GTX 980 Ti. 1080 stödde också SLI och dess TDP var relativt låg på 180W, men den råa prestandan med en enda 1080 var galen i 2016.

Medan PC-spel som använder flera grafikkort till synes aldrig kommer tillbaka, är dörren för multi-GPU faktiskt öppen.

Detta förbättrades ytterligare med GTX 1080 Ti nästa år, vilket ökade prestandan med nästan ytterligare 30 %. En enda 1080Ti var nästan dubbelt så snabb som en 980 Ti och skulle verkligen ha varit en överlägsen lösning till två 980 Ti i SLI. Ingen med sitt fulla sinne skulle verkligen vilja ha två 1080 Tis i SLI, inte bara för att det skulle ha varit varmt och högt utan också för att dubbelt så mycket prestandan som en 1080 Ti skulle ha varit helt överkill (och inte heller genomförbart för de flesta spel med officiell SLI Stöd). Föreställ dig hur galet det skulle vara att ha två RTX 4090 i SLI.

Multi-GPU-spel kan göra comeback

Medan PC-spel som använder flera grafikkort till synes aldrig kommer tillbaka, är dörren för multi-GPU faktiskt öppen. Om du är bekant med AMD: s processorer vet du att dess avancerade stationära chips och alla dess arbetsstationer och server-processorer använder flera CPU-chips tillsammans istället för en stor CPU. Att använda massor av mindre chips (även känd som chiplets) är en teknik som AMD började använda redan 2019, men först 2022 började den använda chiplets för sina GPU: er med introduktionen av den avancerade RX 7000 serier.

RX 7000-kort som RX 7900 XTX har dock bara flera cache- och minneschiplets och använder ett enda GPU-chip. Ändå finns det anledning att tro att AMD kan börja använda flera grafikkretsar eftersom det skulle minska utvecklings- och produktionskostnader samtidigt som det gör det enkelt att skapa nya kort (lägg bara till eller ta bort en chiplet och bam, ny GPU). Intel kan också gå i samma riktning eftersom det också går över till chiplets.

Även om det verkar som att Nvidia inte har något intresse för chiplets, skulle det vara förvånande om AMD och Intel inte var intresserade av att ta tillbaka multi-GPU med chiplets. Kanske kommer vi att se återkomsten av multi-GPU-spel med modern teknik under de kommande åren om det kan fungera tillräckligt bra.