At have to eller flere GPU'er plejede at være toppen af pc-spil, men nu hører det fortiden til. Hvad skete der?
Indtil midten af 2010'erne brugte de hurtigste gaming-pc'er flere grafikkort, normalt to, men nogle gange op til fire. Så nogle af de bedste gaming grafikkort brugte to GPU-chips i stedet for kun én, hvilket hjalp med konsolideringen. Nvidias SLI og AMDs CrossFire multi-GPU-teknologier blev set som toppen af enhver avanceret gaming-pc og kunne løfte din spiloplevelse til næste niveau.
I dag er multi-GPU en saga blot - praktisk talt et levn i computerverdenen. Det faktum, at de fleste nye GPU'er i dag ikke engang understøtter SLI eller CrossFire, er bestemt et problem, men det Populariteten af multi-GPU'er faldt længe før Nvidia og AMD reelt stoppede dem teknologier. Her er historien om multi-GPU-spil, og hvorfor det ikke bestod tidens tand.
En kort historie om multi-GPU'er, fra 3dfx til dets tilbagegang
Mens moderne grafikkort dukkede op i begyndelsen af 2000'erne ud af rivaliseringen mellem Nvidia og AMD, var der mange flere spillere i løbet af 90'erne. Et af disse firmaer var 3dfx Interactive, som producerede den nostalgiske Voodoo-serie af grafikkort. For at opnå en konkurrencefordel besluttede virksomheden, at to grafikkort kunne være bedre end ét, og i 1998 introducerede det sin Scan-Line Interleave-teknologi (SLI). Det var et ret genialt træk fra 3dfx' side, da det tilskyndede til mere GPU-salg og afholdt Voodoo-ejere fra at skifte til et andet kort.
SLI blev dog introduceret lige, da 3dfx var på vej mod konkurs, og virksomheden blev i sidste ende opkøbt af Nvidia, som fik de intellektuelle ejendomsrettigheder til alt, hvad 3dfx ejede. Multi-GPU stoppede kortvarigt med at eksistere efter 3dfx-opkøbet, men Nvidia genindførte SLI (ændre det officielle navn til Scalable Link Interface) i 2004 med sin GeForce 6-serie. Det fungerede stort set på samme måde, som det gjorde før: Tilføj flere GPU'er, få mere ydeevne. Men der var nogle innovationer med Nvidias take.
Mens 3dfx' gamle SLI fik hver GPU til at gengive en linje med pixels én ad gangen ("scanningslinjen" i SLI), men Nvidias ny SLI introducerede to nye renderingsmetoder: split-frame rendering (SFR) og alternativ-frame rendering (AFR). Med SFR gengiver hver GPU en del af en enkelt frame, ikke ved at opdele rammen på midten, men ved at give hver GPU en lige så intensiv del at gengive. AFR, på den anden side, har hver GPU producere en ramme på skift. Mens SFR er fantastisk til at reducere latency, har AFR en tendens til at få den bedste ydeevne, omend med meget dårligere frame pacing og hakken.
Tilsvarende introducerede ATI (snart opkøbt af AMD) i 2005 sin egen multi-GPU-teknologi, kaldet CrossFire, men det var noget rod i starten. Med 3dfx- og Nvidia-kort var alt hvad du havde brug for to af den samme GPU og et kabel eller en bro til at forbinde dem, men CrossFire krævede, at du købte et særligt "master"-kort ud over et almindeligt grafikkort kort. Så, i stedet for at bruge en bro, brugte du et underligt DVI-kabel, der sluttede til begge kort. Det er tilstrækkeligt at sige, at den første generation af CrossFire var dårligt udført. Det hjalp ikke, at dens GPU'er på det tidspunkt ikke var fantastiske.
Men CrossFire kom virkelig til sin ret med introduktionen af AMD's (tidligere ATI's) Radeon 3000 serie, som indeholdt Radeon HD 3870 X2, verdens første grafikkort med to GPU-chips på det. AMD gik rigtig langt med hele dette dual-GPU koncept; dens Radeon 4000- og 5000-seriechips var faktisk ret små, så dual-GPU-grafikkort gav god mening. HD 5970 i 2009, en af AMDs bedste GPU'er nogensinde, blev ofte beskrevet som for hurtigt til at være gennemførligt. Herefter begyndte Nvidia også at lave sine egne dual-GPU-kort.
Efter dette tidspunkt begyndte populariteten af multi-GPU dog at falde. Nvidia droppede dual-GPU-konceptet for sine mainstream-GPU'er efter GTX 690 i 2012 og droppede det helt efter GTX Titan Z i 2014. Nvidia gjorde SLI eksklusivt kun to år senere til sine GTX 1070, 1080 og 1080 Ti GPU'er, og det reducerede også understøttelsen fra fire grafikkort ned til to. SLI var på livsstøtte efter dette, men det blev endelig afskaffet i 2020 med lanceringen af RTX 30-serien, hvoraf kun 3090 understøttede SLI. Men det gjorde ikke noget, da Nvidia ophørte med SLI-driversupport fra 2021 og fremefter.
I mellemtiden blev AMD ved med at lave dual-GPU-kort i årevis, og stoppede kun med Pro Vega II i 2019, som var et eksklusivt Apple Mac-kort. AMD sagde endda, at to RX 480'ere i CrossFire var et godt alternativ til Nvidias GTX 1080 i 2016. AMD gav dog til sidst op på CrossFire efter lanceringen af RX Vega i 2017, som var det sidste AMD-kort, der understøttede det. Det ser ud til, at AMD også holdt op med at lave drivere med CrossFire-understøttelse per spil engang i 2017.
De mange grunde til, at multi-GPU døde ud
Multi-GPU-spil kom og gik ret hurtigt, alt taget i betragtning. Det var kun en betydelig styrke efter 2004 med SLI og CrossFire, men i 2010'erne var det allerede i tilbagegang. I sidste ende var det den retning, den grafiske industri gik, og hvordan spillere fandt enkelt GPU-løsninger så meget mere tiltalende, der ringede dødsstødet.
GPU'er blev større for hver generation og voksede til sidst ud af multi-GPU
Da 3dfx introducerede SLI, var grafikkort bittesmå enheder med virkelig lavt strømforbrug, intet som de giganter, vi ser i dag. Grafikchips havde en tendens til at være omkring 100 mm2 store i 90'erne og begyndelsen af 2000'erne, men alt dette ændrede sig, da ATI lancerede sin Radeon 9000-serien, som indeholdt en chip, der var over 200 mm2, dobbelt så stor som noget, verden havde set før. Dette startede et GPU-våbenkapløb, som ATI/AMD og Nvidia blev ved med at eskalere med hver generation.
Sagen er, at større chips kræver mere strøm og bedre køling, og selvom øget strømforbrug ikke rigtig påvirkede multi-GPU-opsætninger i starten, viste det sig til sidst at være et betydeligt problem. Selv allerede i GTX 480 var grafikkort nået til 250W-mærket, og to 480'ere i SLI forbrugte utrolig meget strøm. Mens AMD lagde stor vægt på multi-GPU med sin HD 4000- og 5000-serie, var det egentlig kun fordi det skulle noget avanceret til at gå imod Nvidias 480 og 580, da AMD's grafikchips var for mellemklasse.
Fra slutningen af 2000'erne og frem forbrugte næsten alle flagskibe lavet af Nvidia og AMD mindst 200W, ofte 250W. Det er måske ikke en tilfældighed, at Nvidias sidste mainstream dual-GPU-kort, 690, brugte to GTX 680-chips, som kun havde en TDP på 195W. Den simple kendsgerning, at enkelte GPU'er blev større og bedre, gjorde SLI og CrossFire vanskeligere og mindre tiltalende for brugere, som normalt ikke ønskede, at deres gaming-pc også skulle være en rumvarmer og et jetfly motor.
Multi-GPU var buggy og krævede udviklere, Nvidia og AMD for at investere ressourcer i det
Hardwaretrends var et problem for multi-GPU's gennemførlighed, og det samme var softwaretrends. Dengang SLI først blev introduceret, var spil meget enklere, og selv 2004's bedste spil, som f.eks. Half-Life 2, er ret umærkelige sammenlignet med dagens spil, selvom vi kan forstå, hvor gode de var, da de kom ud. SLI og CrossFire krævede, at Nvidia og AMD lavede specielle optimeringer til multi-GPU i deres drivere for at opnå god ydeevne, og dengang var dette ikke en stor sag.
Men med tiden blev spil (og i forlængelse heraf GPU'er) mere komplicerede, og det blev sværere at optimere hvert år. Selv i titler, der havde officiel understøttelse af multi-GPU, var oplevelsen ofte underordnet på grund af dårligere end normalt ydeevne eller fejl. I en kort periode i 2016 havde jeg to Radeon R9 380'ere, og da jeg spillede The Witcher 3, Jeg så ofte mærkelige grafiske fejl, der nogle gange endda dækkede over vigtige funktioner som huleindgange, hvilket gjorde spillet ikke bare skævt, men buggy til det punkt, at det ikke kunne spilles.
I sidste ende var det den retning, den grafiske industri gik, og hvordan spillere fandt enkelt GPU-løsninger så meget mere tiltalende, der ringede dødsstødet.
Det eneste glimt af håb om bedre softwareunderstøttelse til multi-GPU var DX12 og Vulkan, som pralede så kraftig multi-GPU-understøttelse, at du endda kan bruge flere GPU'er fra forskellige leverandører i en enkelt spil. Dette aflastede dog bare det arbejde, Nvidia og AMD plejede at udføre, i hænderne på udviklere, som ikke står til at vinde noget ved at understøtte multi-GPU-teknologi, især da Nvidia og AMD fasede det ud. Så softwaresiden af tingene kom heller ikke ud af spillet for multi-GPU-spil.
Spillere havde bare ikke brug for avancerede multi-GPU-opsætninger
Selvom tingene på hardware- og softwaresiden af ligningen fungerede, kunne multi-GPU-spil have været dømt, simpelthen fordi det var overkill. Selv HD 5970 blev beskrevet som overkill, og det var bare med to mellemklasse GPU-chips. Alligevel var multi-GPU lige populær nok til at fortsætte i årevis, men jeg tror, dens skæbne blev afgjort af en enkelt begivenhed: lanceringen af GTX 1080 i 2016.
Nvidias GTX 10-serie var egentlig bare GTX 9-serien på den splinternye 16nm fra TSMC, men det alene var en big deal, da Nvidia havde brugt hele tre generationer på 28nm pga. nedgangen af Moores lov. At gå fra 28nm til 16nm resulterede i, at GTX 1080 var over 50 % hurtigere end GTX 980 og 30 % hurtigere end GTX 980 Ti. 1080 understøttede også SLI og dens TDP var relativt lav ved 180W, men den rå ydeevne med en enkelt 1080 var sindssyg i 2016.
Mens pc-spil, der bruger flere grafik, tilsyneladende aldrig kommer tilbage, er døren til multi-GPU faktisk åben.
Dette blev yderligere forbedret med GTX 1080 Ti det næste år, hvilket øgede ydeevnen med næsten yderligere 30 %. En enkelt 1080Ti var næsten dobbelt så hurtig som en 980 Ti og ville helt sikkert have været en overlegen løsning til to 980 Ti'er i SLI. Ingen ved deres rette sind ville virkelig have to 1080 Ti'er i SLI, ikke kun fordi det ville have været varmt og højt, men også fordi to gange ydeevnen af en 1080 Ti ville have været fuldstændig overkill (og heller ikke muligt for de fleste spil med officiel SLI support). Forestil dig, hvor skørt det ville være at have to RTX 4090'ere i SLI.
Multi-GPU-spil kunne gøre comeback
Mens pc-spil, der bruger flere grafik, tilsyneladende aldrig kommer tilbage, er døren til multi-GPU faktisk åben. Hvis du er bekendt med AMD's CPU'er, vil du vide, at dens avancerede desktop-chips og alle dens arbejdsstations- og server-CPU'er bruger flere CPU-chips sammen i stedet for en stor CPU. At bruge masser af mindre chips (også kendt som chiplets) er en teknologi, som AMD begyndte at bruge tilbage i 2019, selvom det først i 2022 begyndte at bruge chiplets til sine GPU'er med introduktionen af den avancerede RX 7000 serie.
RX 7000-kort som RX 7900 XTX har dog kun flere cache- og hukommelseschipletter og bruger en enkelt GPU-chip. Alligevel er der grund til at tro, at AMD kan begynde at bruge flere grafikchiplets, da det ville skære ned udviklings- og produktionsomkostninger, samtidig med at det gør det nemt at lave nye kort (bare tilføj eller fjern en chiplet og bam, ny GPU). Intel kunne også gå i samme retning, da det også er ved at gå over til chiplets.
Selvom det ser ud til, at Nvidia absolut ikke har nogen interesse i chiplets, ville det være overraskende, hvis AMD og Intel ikke var interesserede i at bringe multi-GPU med chiplets tilbage. Måske vil vi se tilbagevenden af multi-GPU-spil med moderne teknologi i de kommende år, hvis det kan fungere godt nok.