Früher war der Besitz von zwei oder mehr GPUs der Höhepunkt des PC-Gamings, aber jetzt gehört das der Vergangenheit an. Was ist passiert?
Bis Mitte der 2010er Jahre nutzten die schnellsten Gaming-PCs mehrere Grafikkarten, meist zwei, manchmal aber auch bis zu vier. Dann einige davon beste Gaming-Grafikkarten Verwendete zwei GPU-Chips statt nur einem, was bei der Konsolidierung hilfreich war. Nvidias SLI- und AMDs CrossFire-Multi-GPU-Technologien galten als das Nonplusultra jedes High-End-Gaming-PCs und könnten Ihr Spielerlebnis auf die nächste Stufe heben.
Heutzutage gehört Multi-GPU der Vergangenheit an – praktisch ein Relikt in der Computerwelt. Die Tatsache, dass die meisten neuen GPUs heutzutage nicht einmal SLI oder CrossFire unterstützen, ist sicherlich ein Problem, aber das Die Beliebtheit von Multi-GPUs ging zurück, lange bevor Nvidia und AMD diese effektiv einstellten Technologien. Hier ist die Geschichte des Multi-GPU-Gamings und warum es den Test der Zeit nicht bestanden hat.
Eine kurze Geschichte von Multi-GPUs, von 3dfx bis zu seinem Niedergang
Während moderne Grafikkarten Anfang der 2000er Jahre aus der Rivalität zwischen Nvidia und AMD hervorgingen, gab es in den 90er Jahren viel mehr Player. Eines dieser Unternehmen war 3dfx Interactive, das die nostalgische Voodoo-Grafikkartenserie herstellte. Um sich einen Wettbewerbsvorteil zu verschaffen, entschied das Unternehmen, dass zwei Grafikkarten besser sein könnten als eine, und führte 1998 seine Scan-Line Interleave-Technologie (SLI) ein. Es war ein ziemlich genialer Schachzug von 3dfx, da er zu mehr GPU-Verkäufen führte und Voodoo-Besitzer davon abhielt, auf eine andere Karte umzusteigen.
SLI wurde jedoch genau dann eingeführt, als 3dfx kurz vor dem Bankrott stand, und das Unternehmen wurde schließlich von Nvidia übernommen, das die geistigen Eigentumsrechte an allem, was 3dfx besaß, erwarb. Multi-GPU gab es nach der 3dfx-Übernahme kurzzeitig nicht mehr, aber Nvidia führte SLI 2004 mit der GeForce 6-Serie wieder ein (und änderte den offiziellen Namen in Scalable Link Interface). Es funktionierte im Wesentlichen auf die gleiche Weise wie zuvor: Fügen Sie mehr GPUs hinzu, um mehr Leistung zu erzielen. Aber es gab einige Neuerungen bei Nvidias Ansatz.
Während beim alten SLI von 3dfx jede GPU jeweils eine Pixelzeile einzeln renderte (die „Scanzeile“ im SLI), ist es bei Nvidias Mit dem neuen SLI wurden zwei neue Rendering-Methoden eingeführt: Split-Frame-Rendering (SFR) und Alternate-Frame-Rendering (AFR). Mit SFR rendert jede GPU einen Teil eines einzelnen Frames, nicht indem sie den Frame in der Mitte aufteilt, sondern indem sie jeder GPU einen gleich intensiven Block zum Rendern gibt. Bei AFR hingegen erzeugt jede GPU nacheinander einen Frame. Während sich SFR hervorragend zur Reduzierung der Latenz eignet, erzielt AFR tendenziell die höchste Leistung, wenn auch mit viel schlechterem Frame-Tempo und Stottern.
Ebenso führte ATI (das bald von AMD übernommen wird) im Jahr 2005 seine eigene Multi-GPU-Technologie namens CrossFire ein, aber zunächst war es ein ziemliches Durcheinander. Bei 3dfx- und Nvidia-Karten benötigte man lediglich zwei gleiche GPUs und ein Kabel oder eine Brücke zum Anschließen Für CrossFire mussten Sie jedoch zusätzlich zur regulären Grafik eine spezielle „Master“-Karte kaufen Karte. Dann haben Sie statt einer Brücke ein seltsames DVI-Kabel verwendet, das an beide Karten angeschlossen wurde. Es genügt zu sagen, dass die erste Generation von CrossFire schlecht ausgeführt wurde. Es half auch nicht, dass die GPUs damals nicht besonders gut waren.
Mit der Einführung der Radeon 3000 von AMD (ehemals ATI) kam CrossFire aber erst richtig zur Geltung Serie, in der die Radeon HD 3870 X2 vorgestellt wurde, die weltweit erste Grafikkarte mit zwei GPU-Chips Es. AMD ist mit diesem gesamten Dual-GPU-Konzept wirklich weit gegangen; Die Chips der Radeon 4000- und 5000-Serie waren tatsächlich recht klein, sodass Dual-GPU-Grafikkarten sehr sinnvoll waren. Der HD 5970 im Jahr 2009, eine der besten AMD-GPUs aller Zeiten, wurde oft als zu schnell beschrieben, um machbar zu sein. Danach begann Nvidia auch mit der Herstellung eigener Dual-GPU-Karten.
Ab diesem Zeitpunkt begann jedoch die Beliebtheit von Multi-GPUs zu sinken. Nvidia hat das Dual-GPU-Konzept für seine Mainstream-GPUs nach der GTX 690 im Jahr 2012 aufgegeben und es nach der GTX Titan Z im Jahr 2014 ganz aufgegeben. Nur zwei Jahre später machte Nvidia SLI exklusiv für seine GTX 1070-, 1080- und 1080 Ti-GPUs und reduzierte außerdem die Unterstützung von vier Grafikkarten auf zwei. Danach war SLI lebenserhaltend, wurde aber 2020 mit der Einführung der RTX 30-Serie, von der nur der 3090 SLI unterstützte, endgültig abgeschafft. Aber das spielte keine Rolle, da Nvidia ab 2021 die Unterstützung von SLI-Treibern eingestellt hat.
Unterdessen stellte AMD jahrelang weiterhin Dual-GPU-Karten her und hörte erst 2019 mit der Pro Vega II auf, einer exklusiven Karte für Apple Mac. AMD sagte sogar, dass zwei RX 480 in CrossFire eine gute Alternative zu Nvidias GTX 1080 im Jahr 2016 seien. Allerdings gab AMD CrossFire schließlich nach der Einführung der RX Vega im Jahr 2017 auf, die die letzte AMD-Karte war, die es unterstützte. Es scheint, dass AMD irgendwann im Jahr 2017 auch aufgehört hat, Treiber mit CrossFire-Unterstützung pro Spiel zu entwickeln.
Die vielen Gründe, warum Multi-GPU ausgestorben ist
Alles in allem kam und ging Multi-GPU-Gaming ziemlich schnell. Mit SLI und CrossFire war es erst nach 2004 eine bedeutende Kraft, in den 2010er Jahren befand es sich jedoch bereits im Niedergang. Letztendlich war es die Richtung, in die sich die Grafikbranche bewegte und die Art und Weise, wie Gamer Einzel-GPU-Lösungen so viel attraktiver fanden, was den Todesstoß auslöste.
GPUs wurden von Generation zu Generation größer und überholten schließlich die Multi-GPU
Als 3dfx SLI einführte, waren Grafikkarten winzige Geräte mit sehr geringem Stromverbrauch, nichts im Vergleich zu den Giganten, die wir heute sehen. In den 90er- und frühen 2000er-Jahren waren Grafikchips in der Regel etwa 100 mm2 groß, doch mit der Markteinführung von ATI änderte sich alles Radeon 9000-Serie, deren Chip über 200 mm² groß war, doppelt so groß wie alles, was die Welt zuvor gesehen hatte. Dies löste ein GPU-Wettrüsten aus, das ATI/AMD und Nvidia mit jeder Generation immer weiter verschärfte.
Tatsache ist, dass größere Chips mehr Strom und eine bessere Kühlung benötigen, und obwohl sich ein erhöhter Stromverbrauch zunächst nicht wirklich auf Multi-GPU-Setups auswirkte, erwies er sich schließlich als erhebliches Problem. Schon bei der GTX 480 erreichten Grafikkarten die 250-W-Marke und zwei 480er im SLI verbrauchten unglaublich viel Strom. Während AMD bei seinen HD 4000- und 5000-Serien großen Wert auf Multi-GPU legte, lag das eigentlich nur daran Es brauchte etwas High-End, um gegen Nvidias 480 und 580 anzutreten, da AMDs Grafikchips zu mittelklasse waren.
Ab Ende der 2000er Jahre verbrauchten fast alle Flaggschiffe von Nvidia und AMD mindestens 200 W, oft sogar 250 W. Es ist vielleicht kein Zufall, dass Nvidias letzte Mainstream-Dual-GPU-Karte, die 690, zwei GTX 680-Chips verwendete, die eine TDP von nur 195 W hatten. Die einfache Tatsache, dass einzelne GPUs immer größer und besser wurden, machte SLI und CrossFire schwieriger und schwieriger weniger attraktiv für Benutzer, die normalerweise nicht wollten, dass ihr Gaming-PC auch ein Raumheizer und ein Jet ist Motor.
Multi-GPU war fehlerhaft und erforderte von Entwicklern, Nvidia und AMD, Ressourcen in sie zu investieren
Hardwaretrends stellten ein Problem für die Machbarkeit mehrerer GPUs dar, ebenso wie Softwaretrends. Als SLI zum ersten Mal eingeführt wurde, waren die Spiele viel einfacher, und selbst die besten Spiele des Jahres 2004, wie z Halbwertszeit 2, sind im Vergleich zu heutigen Spielen ziemlich unauffällig, auch wenn wir nachvollziehen können, wie großartig sie waren, als sie herauskamen. SLI und CrossFire verlangten von Nvidia und AMD, spezielle Optimierungen für Multi-GPU in ihren Treibern zu erstellen, um eine gute Leistung zu erzielen, und das war damals keine große Sache.
Aber mit der Zeit wurden Spiele (und damit auch GPUs) komplizierter und es wurde von Jahr zu Jahr schwieriger, sie zu optimieren. Selbst bei Titeln, die offiziell Multi-GPU unterstützten, war das Erlebnis aufgrund schlechter als normaler Leistung oder Fehlern oft unterdurchschnittlich. Für kurze Zeit im Jahr 2016 hatte ich zwei Radeon R9 380 und als ich spielte Der Hexer 3, Ich habe oft seltsame Grafikfehler gesehen, die manchmal sogar wichtige Features wie Höhleneingänge verdeckten, was das Spiel nicht nur skurril, sondern auch so fehlerhaft machte, dass es nicht mehr spielbar war.
Letztendlich war es die Richtung, in die sich die Grafikbranche bewegte und die Art und Weise, wie Gamer Einzel-GPU-Lösungen so viel attraktiver fanden, was den Todesstoß auslöste.
Der einzige Hoffnungsschimmer für eine bessere Softwareunterstützung für Multi-GPUs waren DX12 und Vulkan, die damit prahlten So leistungsstarke Multi-GPU-Unterstützung, dass Sie sogar mehrere GPUs verschiedener Hersteller in einer einzigen verwenden könnten Spiel. Dadurch wurde jedoch nur die Arbeit, die Nvidia und AMD früher geleistet hatten, in die Hände von Entwicklern verlagert, die dies nicht taten Durch die Unterstützung der Multi-GPU-Technologie könnten wir etwas gewinnen, insbesondere da Nvidia und AMD sie schrittweise eingeführt haben aus. Auch die Softwareseite hat beim Multi-GPU-Gaming nicht geklappt.
Gamer brauchten einfach keine High-End-Multi-GPU-Setups
Selbst wenn die Dinge auf der Hardware- und Softwareseite geklappt hätten, wäre Multi-GPU-Gaming möglicherweise einfach deshalb zum Scheitern verurteilt, weil es übertrieben war. Sogar die HD 5970 wurde als übertrieben beschrieben, und das nur mit zwei Mittelklasse-GPU-Chips. Dennoch war Multi-GPU gerade so beliebt, dass es jahrelang Bestand hatte, aber ich denke, sein Schicksal wurde durch ein einziges Ereignis entschieden: die Einführung der GTX 1080 im Jahr 2016.
Nvidias GTX 10-Serie war eigentlich nur die GTX 9-Serie auf dem brandneuen 16-nm-Prozessor von TSMC, aber das allein war eine große Sache, da Nvidia aus diesem Grund drei ganze Generationen auf 28-nm-Technologie verwendet hatte der Niedergang des Mooreschen Gesetzes. Der Wechsel von 28 nm auf 16 nm führte dazu, dass die GTX 1080 über 50 % schneller als die GTX 980 und 30 % schneller als die GTX 980 Ti war. Der 1080 unterstützte auch SLI und seine TDP war mit 180 W relativ niedrig, aber die reine Leistung mit einem einzelnen 1080 war wahnsinnig 2016.
Während PC-Spiele mit mehreren Grafikkarten scheinbar nie wiederkommen, steht die Tür für Multi-GPU tatsächlich offen.
Dies wurde im nächsten Jahr mit der GTX 1080 Ti weiter verbessert und die Leistung um fast weitere 30 % gesteigert. Ein einzelner 1080Ti war fast doppelt so schnell wie ein 980 Ti und wäre im SLI sicherlich eine bessere Lösung als zwei 980 Ti gewesen. Niemand, der bei klarem Verstand ist, würde wirklich zwei 1080 Tis in SLI wollen, nicht nur, weil es heiß und laut gewesen wäre, sondern auch, weil Die doppelte Leistung einer 1080 Ti wäre völlig übertrieben gewesen (und für die meisten Spiele mit offiziellem SLI auch nicht machbar). Unterstützung). Stellen Sie sich vor, wie verrückt es wäre, zwei RTX 4090 in SLI zu haben.
Multi-GPU-Gaming könnte ein Comeback erleben
Während PC-Spiele mit mehreren Grafikkarten scheinbar nie wiederkommen, steht die Tür für Multi-GPU tatsächlich offen. Wenn Sie mit den CPUs von AMD vertraut sind, wissen Sie, dass die High-End-Desktop-Chips und alle Workstation- und Server-CPUs mehrere CPU-Chips zusammen anstelle einer großen CPU verwenden. Die Verwendung vieler kleinerer Chips (auch Chiplets genannt) ist eine Technologie, mit der AMD bereits 2019 begann. Allerdings begann das Unternehmen erst im Jahr 2022 mit der Einführung des High-End-Modells RX 7000 mit der Verwendung von Chiplets für seine GPUs Serie.
RX 7000-Karten wie die RX 7900 XTX verfügen jedoch nur über mehrere Cache- und Speicherchiplets und verwenden einen einzigen GPU-Chip. Dennoch gibt es Grund zu der Annahme, dass AMD damit beginnen könnte, mehrere Grafikchiplets zu verwenden, da dies zu Einsparungen führen würde Die Entwicklungs- und Produktionskosten werden gesenkt und gleichzeitig die Herstellung neuer Karten vereinfacht (einfach ein Chiplet hinzufügen oder entfernen). bam, neue GPU). Auch Intel könnte in die gleiche Richtung gehen, da auch das Unternehmen auf Chiplets umsteigt.
Während es den Anschein hat, dass Nvidia überhaupt kein Interesse an Chiplets hat, wäre es überraschend, wenn AMD und Intel kein Interesse daran hätten, Multi-GPUs mit Chiplets zurückzubringen. Vielleicht erleben wir in den kommenden Jahren die Rückkehr des Multi-GPU-Gamings mit moderner Technologie, wenn es gut genug funktionieren kann.