Het hebben van twee of meer GPU's was vroeger het toppunt van pc-gaming, maar nu behoort het tot het verleden. Wat is er gebeurd?
Tot het midden van de jaren 2010 gebruikten de snelste gaming-pc's meerdere grafische kaarten, meestal twee maar soms wel vier. Dan een deel van de beste gaming grafische kaarten gebruikte twee GPU-chips in plaats van slechts één, wat hielp bij consolidatie. Nvidia's SLI en AMD's CrossFire multi-GPU-technologieën werden gezien als het toppunt van elke high-end gaming-pc en zouden je game-ervaring naar een hoger niveau kunnen tillen.
Tegenwoordig behoort multi-GPU tot het verleden - praktisch een overblijfsel in de computerwereld. Het feit dat de meeste nieuwe GPU's tegenwoordig niet eens SLI of CrossFire ondersteunen, is zeker een probleem, maar de de populariteit van multi-GPU's nam af lang voordat Nvidia en AMD deze effectief stopten technologieën. Hier is de geschiedenis van multi-GPU-gaming en waarom het de tand des tijds niet heeft doorstaan.
Een korte geschiedenis van multi-GPU's, van 3dfx tot het verval ervan
Terwijl moderne grafische kaarten in de vroege jaren 2000 ontstonden uit de rivaliteit tussen Nvidia en AMD, waren er in de jaren '90 veel meer spelers. Een van die bedrijven was 3dfx Interactive, dat de nostalgische Voodoo-lijn grafische kaarten produceerde. Om een voorsprong op de concurrentie te krijgen, besloot het bedrijf dat twee grafische kaarten beter konden zijn dan één, en in 1998 introduceerde het zijn Scan-Line Interleave-technologie (SLI). Het was een behoorlijk geniale zet van 3dfx, omdat het meer GPU-verkopen aanmoedigde en Voodoo-bezitters ervan weerhield over te stappen op een andere kaart.
SLI werd echter geïntroduceerd toen 3dfx op weg was naar een faillissement en het bedrijf werd uiteindelijk overgenomen door Nvidia, die de intellectuele eigendomsrechten verwierf op alles wat 3dfx bezat. Multi-GPU stopte even met bestaan na de overname van 3dfx, maar Nvidia introduceerde SLI (de officiële naam veranderde in Scalable Link Interface) in 2004 opnieuw met zijn GeForce 6-serie. Het werkte in wezen op dezelfde manier als voorheen: voeg meer GPU's toe, krijg meer prestaties. Maar er waren enkele innovaties met de versie van Nvidia.
Terwijl de oude SLI van 3dfx elke GPU een lijn met pixels één voor één liet renderen (de "scanlijn" in SLI), Nvidia's nieuwe SLI introduceerde twee nieuwe weergavemethoden: split-frame rendering (SFR) en alternative-frame rendering (AFR). Met SFR geeft elke GPU een deel van een enkel frame weer, niet door het frame in het midden te splitsen, maar door elke GPU een even intensief deel te geven om te renderen. AFR daarentegen laat elke GPU om de beurt een frame produceren. Hoewel SFR geweldig is voor het verminderen van latentie, heeft AFR de neiging om de meeste prestaties te leveren, zij het met veel slechtere frame-pacing en stotteren.
Evenzo introduceerde ATI (binnenkort overgenomen door AMD) in 2005 zijn eigen multi-GPU-technologie, genaamd CrossFire, maar in het begin was het nogal een puinhoop. Met 3dfx- en Nvidia-kaarten had je alleen twee dezelfde GPU nodig en een kabel of bridge om verbinding te maken ze, maar CrossFire vereiste dat je naast een gewone grafische kaart een speciale "master" -kaart kocht kaart. Vervolgens gebruikte je in plaats van een bridge een rare DVI-kabel die op beide kaarten was aangesloten. Het volstaat te zeggen dat de eerste generatie CrossFire slecht werd uitgevoerd. Het hielp niet dat de GPU's destijds niet geweldig waren.
Maar CrossFire kwam echt tot zijn recht met de introductie van AMD's (voorheen ATI's) Radeon 3000 serie, met de Radeon HD 3870 X2, 's werelds eerste grafische kaart met twee GPU-chips erop Het. AMD ging heel ver met dit hele dual-GPU-concept; de chips uit de Radeon 4000- en 5000-serie waren eigenlijk vrij klein, dus grafische kaarten met dubbele GPU waren heel logisch. De HD 5970 in 2009, een van AMD's beste GPU's aller tijden, werd vaak beschreven als te snel om haalbaar te zijn. Hierna begon Nvidia ook zijn eigen dual-GPU-kaarten te maken.
Na dit punt begon de populariteit van multi-GPU echter af te nemen. Nvidia liet het dual-GPU-concept voor zijn reguliere GPU's vallen na de GTX 690 in 2012, en liet het helemaal vallen na de GTX Titan Z in 2014. Nvidia maakte SLI slechts twee jaar later exclusief voor zijn GTX 1070, 1080 en 1080 Ti GPU's, en verminderde ook de ondersteuning van vier grafische kaarten tot twee. SLI kreeg hierna levensondersteuning, maar werd uiteindelijk afgeschaft in 2020 met de lancering van de RTX 30-serie, waarvan alleen de 3090 SLI ondersteunde. Maar dat deed er niet toe, aangezien Nvidia vanaf 2021 stopte met de ondersteuning van SLI-stuurprogramma's.
Ondertussen bleef AMD jarenlang dual-GPU-kaarten maken en stopte pas in 2019 met de Pro Vega II, een exclusieve kaart voor Apple Mac. AMD zei zelfs dat twee RX 480's in CrossFire een goed alternatief waren voor Nvidia's GTX 1080 in 2016. Uiteindelijk gaf AMD echter CrossFire op na de lancering van RX Vega in 2017, de laatste AMD-kaart die dit ondersteunde. Het lijkt erop dat AMD ergens in 2017 ook stopte met het maken van stuurprogramma's met CrossFire-ondersteuning per game.
De vele redenen waarom multi-GPU uitstierf
Multi-GPU-gaming kwam en ging vrij snel, alles bij elkaar genomen. Het was pas een significante kracht na 2004 met SLI en CrossFire, maar tegen de jaren 2010 was het al aan het afnemen. Uiteindelijk was het de richting die de grafische industrie opging en hoe gamers single GPU-oplossingen zo veel aantrekkelijker vonden dat de doodsteek luidde.
GPU's werden elke generatie groter en ontgroeiden uiteindelijk de multi-GPU
Toen 3dfx SLI introduceerde, waren grafische kaarten kleine apparaten met een zeer laag stroomverbruik, in niets zoals de kolossen die we vandaag zien. Grafische chips waren in de jaren 90 en begin 2000 meestal ongeveer 100 mm2 groot, maar dit veranderde allemaal toen ATI zijn Radeon 9000-serie, met een chip van meer dan 200 mm2, twee keer zo groot als alles wat de wereld eerder had gezien. Dit begon een GPU-wapenwedloop die ATI/AMD en Nvidia met elke generatie bleven escaleren.
Het punt is dat grotere chips meer vermogen en betere koeling nodig hebben, en hoewel een groter stroomverbruik aanvankelijk niet echt van invloed was op multi-GPU-opstellingen, bleek het uiteindelijk een aanzienlijk probleem te zijn. Zelfs al in de GTX 480 hadden grafische kaarten de grens van 250 W bereikt en verbruikten twee 480's in SLI een ongelooflijke hoeveelheid stroom. Terwijl AMD veel nadruk legde op multi-GPU met zijn HD 4000- en 5000-series, was dat eigenlijk alleen omdat het had iets high-ends nodig om tegen de 480 en 580 van Nvidia in te gaan, aangezien de grafische chips van AMD te middenklasse waren.
Vanaf het einde van de jaren 2000 verbruikte bijna elk vlaggenschip van Nvidia en AMD minstens 200 W, vaak 250 W. Het is misschien geen toeval dat Nvidia's laatste reguliere dual-GPU-kaart, de 690, twee GTX 680-chips gebruikte, die een TDP van slechts 195W hadden. Het simpele feit dat afzonderlijke GPU's groter en beter werden, maakte SLI en CrossFire moeilijker en moeilijker minder aantrekkelijk voor gebruikers, die meestal niet wilden dat hun gaming-pc ook een ruimteverwarming en een straalvliegtuig zou zijn motor.
Multi-GPU had fouten en vereiste ontwikkelaars, Nvidia en AMD om er middelen in te investeren
Hardwaretrends vormden een probleem voor de haalbaarheid van multi-GPU's, evenals softwaretrends. Toen SLI voor het eerst werd geïntroduceerd, waren games veel eenvoudiger en zelfs de beste games van 2004, zoals Halfwaardetijd 2, zijn vrij onopvallend in vergelijking met de games van vandaag, ook al kunnen we waarderen hoe geweldig ze waren toen ze uitkwamen. SLI en CrossFire vereisten dat Nvidia en AMD speciale optimalisaties voor multi-GPU in hun stuurprogramma's maakten om goede prestaties te bereiken, en in die tijd was dit geen probleem.
Maar na verloop van tijd werden games (en bij uitbreiding GPU's) ingewikkelder en werd het elk jaar moeilijker om te optimaliseren. Zelfs in titels die officiële ondersteuning voor meerdere GPU's hadden, was de ervaring vaak ondermaats vanwege slechtere prestaties of bugs. In 2016 had ik korte tijd twee Radeon R9 380's en toen ik speelde de hekser 3, Ik zag vaak rare grafische glitches die soms zelfs belangrijke functies zoals grotingangen verdoezelden, waardoor het spel niet alleen eigenzinnig was, maar zelfs zo buggy dat het onspeelbaar werd.
Uiteindelijk was het de richting die de grafische industrie opging en hoe gamers single GPU-oplossingen zo veel aantrekkelijker vonden dat de doodsteek luidde.
Het enige sprankje hoop op betere softwareondersteuning voor multi-GPU was DX12 en Vulkan, die opschepten zo'n krachtige multi-GPU-ondersteuning dat je zelfs meerdere GPU's van verschillende leveranciers in één zou kunnen gebruiken spel. Dit heeft echter het werk dat Nvidia en AMD vroeger deden, in de handen van ontwikkelaars gelegd, die dat niet deden er valt iets te winnen door multi-GPU-technologie te ondersteunen, vooral omdat Nvidia en AMD het aan het faseren waren uit. Dus de softwarekant van de dingen werkte ook niet voor multi-GPU-gaming.
Gamers hadden gewoon geen high-end multi-GPU-setups nodig
Zelfs als de dingen aan de hardware- en softwarekant van de vergelijking zouden werken, zou multi-GPU-gaming misschien gedoemd zijn, simpelweg omdat het overdreven was. Zelfs de HD 5970 werd beschreven als overkill, en dat was alleen met twee middenklasse GPU-chips. Toch was multi-GPU net populair genoeg om jarenlang door te gaan, maar ik denk dat het lot ervan werd bepaald door één enkele gebeurtenis: de lancering van de GTX 1080 in 2016.
Nvidia's GTX 10-serie was eigenlijk gewoon de GTX 9-serie op de gloednieuwe 16nm van TSMC, maar dat alleen al was een groot probleem, aangezien Nvidia drie hele generaties op 28nm had doorgebracht vanwege het verval van de wet van Moore. Door van 28nm naar 16nm te gaan, was de GTX 1080 meer dan 50% sneller dan de GTX 980 en 30% sneller dan de GTX 980 Ti. De 1080 ondersteunde ook SLI en zijn TDP was met 180W relatief laag, maar de ruwe prestaties met een enkele 1080 waren krankzinnig in 2016.
Hoewel pc-gaming met meerdere grafische afbeeldingen schijnbaar nooit meer terugkomt, staat de deur voor multi-GPU eigenlijk open.
Dit werd het volgende jaar verder verbeterd met de GTX 1080 Ti, waardoor de prestaties met bijna nog eens 30% werden verbeterd. Een enkele 1080Ti was bijna twee keer zo snel als een 980 Ti en zou zeker een superieure oplossing zijn geweest voor twee 980 Ti's in SLI. Niemand met een gezond verstand zou echt twee 1080 Ti's in SLI willen, niet alleen omdat het heet en luid zou zijn geweest, maar ook omdat tweemaal de prestatie van een 1080 Ti zou volledig overdreven zijn geweest (en ook niet haalbaar voor de meeste games met officiële SLI steun). Stel je voor hoe gek het zou zijn om twee RTX 4090's in SLI te hebben.
Multi-GPU-gaming zou een comeback kunnen maken
Hoewel pc-gaming met meerdere grafische afbeeldingen schijnbaar nooit meer terugkomt, staat de deur voor multi-GPU eigenlijk open. Als u bekend bent met de CPU's van AMD, weet u dat de geavanceerde desktopchips en alle werkstation- en server-CPU's meerdere CPU-chips samen gebruiken in plaats van één grote CPU. Het gebruik van veel kleinere chips (ook wel chiplets genoemd) is een technologie die AMD in 2019 begon te gebruiken, hoewel het pas in 2022 begon met het gebruik van chiplets voor zijn GPU's met de introductie van de high-end RX 7000 serie.
RX 7000-kaarten zoals de RX 7900 XTX hebben echter slechts meerdere cache- en geheugenchiplets en gebruiken een enkele GPU-chip. Toch is er reden om aan te nemen dat AMD mogelijk meerdere grafische chiplets gaat gebruiken, omdat het zou bezuinigen ontwikkelings- en productiekosten, terwijl het ook eenvoudig wordt om nieuwe kaarten te maken (gewoon een chiplet toevoegen of verwijderen en bam, nieuwe GPU). Intel zou ook dezelfde kant op kunnen gaan, aangezien ook zij overstappen op chiplets.
Hoewel het erop lijkt dat Nvidia absoluut geen interesse heeft in chiplets, zou het verrassend zijn als AMD en Intel niet geïnteresseerd zouden zijn in het terugbrengen van multi-GPU met chiplets. Misschien zien we de komende jaren de terugkeer van multi-GPU-gaming met moderne technologie als het goed genoeg kan werken.