Qu'est-il arrivé aux jeux multi-GPU ?

click fraud protection

Avoir deux GPU ou plus était autrefois le summum du jeu sur PC, mais maintenant c'est une chose du passé. Ce qui s'est passé?

Jusqu'au milieu des années 2010, les PC de jeu les plus rapides utilisaient plusieurs cartes graphiques, généralement deux mais parfois jusqu'à quatre. Ensuite, certains des meilleures cartes graphiques de jeu utilisé deux puces GPU au lieu d'une seule, ce qui a aidé à la consolidation. Les technologies multi-GPU SLI de Nvidia et CrossFire d'AMD étaient considérées comme le summum de tout PC de jeu haut de gamme et pourraient élever votre expérience de jeu au niveau supérieur.

Aujourd'hui, le multi-GPU appartient au passé - pratiquement une relique dans le monde informatique. Le fait que la plupart des nouveaux GPU ne prennent même pas en charge SLI ou CrossFire est certainement un problème, mais le la popularité des multi-GPU diminuait bien avant que Nvidia et AMD ne les arrêtent effectivement les technologies. Voici l'histoire du jeu multi-GPU et pourquoi il n'a pas résisté à l'épreuve du temps.

Une brève histoire du multi-GPU, de 3dfx à son déclin

Alors que les cartes graphiques modernes sont nées au début des années 2000 de la rivalité entre Nvidia et AMD, il y avait beaucoup plus de joueurs dans les années 90. L'une de ces sociétés était 3dfx Interactive, qui produisait la gamme nostalgique de cartes graphiques Voodoo. Afin d'acquérir un avantage concurrentiel, la société a décidé que deux cartes graphiques valaient mieux qu'une, et en 1998, elle a introduit sa technologie Scan-Line Interleave (SLI). C'était une décision plutôt géniale de la part de 3dfx, car elle encourageait davantage les ventes de GPU et dissuadait les propriétaires de Voodoo de passer à une autre carte.

Cependant, SLI a été introduit juste au moment où 3dfx se dirigeait vers la faillite, et la société a finalement été acquise par Nvidia, qui a obtenu les droits de propriété intellectuelle sur tout ce que 3dfx possédait. Le multi-GPU a brièvement cessé d'exister après l'acquisition de 3dfx, mais Nvidia a réintroduit le SLI (en changeant le nom officiel en Scalable Link Interface) en 2004 avec sa série GeForce 6. Cela fonctionnait essentiellement de la même manière qu'auparavant: ajoutez plus de GPU, obtenez plus de performances. Mais il y avait quelques innovations avec la prise de Nvidia.

Alors que l'ancien SLI de 3dfx faisait en sorte que chaque GPU rende une ligne de pixels un à la fois (la "ligne de balayage" dans SLI), Nvidia le nouveau SLI a introduit deux nouvelles méthodes de rendu: le rendu d'images fractionnées (SFR) et le rendu d'images alternées (AFR). Avec SFR, chaque GPU restitue une partie d'une seule image, non pas en divisant l'image au milieu, mais en donnant à chaque GPU un morceau tout aussi intensif à rendre. AFR, d'autre part, demande à chaque GPU de produire une image à son tour. Alors que SFR est idéal pour réduire la latence, AFR a tendance à obtenir le plus de performances, bien qu'avec une stimulation et un bégaiement de trame beaucoup plus faibles.

De même, en 2005, ATI (bientôt racheté par AMD) a introduit sa propre technologie multi-GPU, appelée CrossFire, mais c'était un peu le bordel au début. Avec les cartes 3dfx et Nvidia, tout ce dont vous aviez besoin était deux du même GPU et un câble ou un pont pour vous connecter eux, mais CrossFire vous obligeait à acheter une carte "maître" spéciale en plus d'une carte graphique régulière carte. Ensuite, au lieu d'utiliser un pont, vous avez utilisé un câble DVI étrange qui s'est branché sur les deux cartes. Qu'il suffise de dire que la première génération de CrossFire a été mal exécutée. Cela n'a pas aidé qu'à l'époque, ses GPU n'étaient pas incroyables.

Mais CrossFire a vraiment pris tout son sens avec l'introduction de la Radeon 3000 d'AMD (anciennement ATI) série, qui comprenait la Radeon HD 3870 X2, la première carte graphique au monde avec deux puces GPU sur il. AMD est allé très loin avec tout ce concept à double GPU; ses puces des séries Radeon 4000 et 5000 étaient en fait assez petites, donc les cartes graphiques à double GPU avaient beaucoup de sens. Le HD 5970 en 2009, l'un des meilleurs GPU d'AMD de tous les temps, a souvent été décrite comme trop rapide pour être réalisable. Après cela, Nvidia a également commencé à fabriquer ses propres cartes à double GPU.

Après ce point, cependant, la popularité du multi-GPU a commencé à décliner. Nvidia a abandonné le concept de double GPU pour ses GPU grand public après la GTX 690 en 2012, et l'a complètement abandonné après la GTX Titan Z en 2014. Nvidia a rendu SLI exclusif à peine deux ans plus tard pour ses GPU GTX 1070, 1080 et 1080 Ti, et il a également réduit la prise en charge de quatre cartes graphiques à deux. Le SLI était sous assistance respiratoire après cela, mais il a finalement été supprimé en 2020 avec le lancement de la série RTX 30, dont seul le 3090 prenait en charge le SLI. Mais cela n'avait pas d'importance puisque Nvidia a cessé la prise en charge des pilotes SLI à partir de 2021.

Pendant ce temps, AMD a continué à fabriquer des cartes à double GPU pendant des années, ne s'arrêtant qu'avec la Pro Vega II en 2019, qui était une carte exclusive Apple Mac. AMD a même déclaré que deux RX 480 en CrossFire étaient une bonne alternative à la GTX 1080 de Nvidia en 2016. Cependant, AMD a finalement abandonné CrossFire après le lancement de RX Vega en 2017, qui était la dernière carte AMD à le prendre en charge. Il semble qu'AMD ait également cessé de créer des pilotes avec prise en charge CrossFire par jeu en 2017 également.

Les nombreuses raisons pour lesquelles le multi-GPU s'est éteint

Les jeux multi-GPU allaient et venaient assez rapidement, tout bien considéré. Ce n'était une force significative qu'après 2004 avec SLI et CrossFire, mais dans les années 2010, elle était déjà en déclin. En fin de compte, c'est la direction que prenait l'industrie graphique et la façon dont les joueurs ont trouvé les solutions GPU uniques tellement plus attrayantes qui ont sonné le glas.

Les GPU devenaient de plus en plus gros à chaque génération et finissaient par dépasser le multi-GPU

Lorsque 3dfx a introduit le SLI, les cartes graphiques étaient de minuscules appareils à très faible consommation d'énergie, rien à voir avec les mastodontes que nous voyons aujourd'hui. Les puces graphiques avaient tendance à mesurer environ 100 mm2 dans les années 90 et au début des années 2000, mais tout a changé lorsque ATI a lancé son La série Radeon 9000, qui comportait une puce de plus de 200 mm2, doublait la taille de tout ce que le monde avait vu auparavant. Cela a déclenché une course aux armements GPU qu'ATI/AMD et Nvidia n'ont cessé d'intensifier à chaque génération.

Le fait est que les puces plus grandes nécessitent plus de puissance et un meilleur refroidissement, et bien que l'augmentation de la consommation d'énergie n'ait pas vraiment eu d'impact sur les configurations multi-GPU au début, cela s'est finalement avéré être un problème important. Même dès la GTX 480, les cartes graphiques avaient atteint la barre des 250 W, et deux 480 en SLI consommaient une quantité incroyable d'énergie. Alors qu'AMD a mis l'accent sur le multi-GPU avec ses séries HD 4000 et 5000, c'était vraiment uniquement parce que il fallait quelque chose de haut de gamme pour aller contre les 480 et 580 de Nvidia car les puces graphiques d'AMD étaient trop milieu de gamme.

Depuis la fin des années 2000, presque tous les produits phares fabriqués par Nvidia et AMD consommaient au moins 200 W, souvent 250 W. Ce n'est peut-être pas une coïncidence si la dernière carte double GPU grand public de Nvidia, la 690, utilisait deux puces GTX 680, qui avaient un TDP de seulement 195W. Le simple fait que les GPU simples devenaient de plus en plus gros et meilleurs rendait le SLI et le CrossFire plus difficiles et moins attrayant pour les utilisateurs, qui ne voulaient généralement pas que leur PC de jeu soit également un radiateur et un jet moteur.

Le multi-GPU était bogué et nécessitait que les développeurs, Nvidia et AMD y investissent des ressources

Les tendances matérielles étaient un problème pour la faisabilité du multi-GPU, tout comme les tendances logicielles. À l'époque où le SLI a été introduit pour la première fois, les jeux étaient beaucoup plus simples, et même les meilleurs jeux de 2004, tels que Half Life 2, sont assez banals par rapport aux jeux d'aujourd'hui, même si nous pouvons apprécier à quel point ils étaient géniaux à leur sortie. SLI et CrossFire exigeaient que Nvidia et AMD créent des optimisations spéciales pour le multi-GPU dans leurs pilotes afin d'obtenir de bonnes performances, et à l'époque, ce n'était pas un gros problème.

Mais au fil du temps, les jeux (et, par extension, les GPU) se sont compliqués et il est devenu plus difficile d'optimiser chaque année. Même dans les titres prenant officiellement en charge le multi-GPU, l'expérience était souvent médiocre en raison de performances ou de bogues inférieurs à la normale. Pendant une courte période en 2016, j'ai eu deux Radeon R9 380, et quand j'ai joué Le Sorceleur 3, J'ai souvent vu d'étranges problèmes graphiques qui couvraient parfois même des fonctionnalités importantes telles que les entrées de grottes, rendant le jeu non seulement excentrique mais bogué au point d'être injouable.

En fin de compte, c'est la direction que prenait l'industrie graphique et la façon dont les joueurs ont trouvé les solutions GPU uniques tellement plus attrayantes qui ont sonné le glas.

La seule lueur d'espoir d'un meilleur support logiciel pour le multi-GPU était DX12 et Vulkan, qui se vantaient une prise en charge multi-GPU si puissante que vous pouvez même utiliser plusieurs GPU de différents fournisseurs en un seul jeu. Cependant, cela n'a fait que décharger le travail que Nvidia et AMD avaient l'habitude de faire entre les mains des développeurs, qui n'ont pas avoir tout à gagner en prenant en charge la technologie multi-GPU, d'autant plus que Nvidia et AMD l'ont progressivement dehors. Ainsi, le côté logiciel des choses ne s'est pas déroulé non plus pour les jeux multi-GPU.

Les joueurs n'avaient tout simplement pas besoin de configurations multi-GPU haut de gamme

Même si les choses du côté matériel et logiciel de l'équation fonctionnaient, le jeu multi-GPU aurait pu être condamné simplement parce qu'il était exagéré. Même le HD 5970 a été décrit comme exagéré, et ce n'était qu'avec deux puces GPU de milieu de gamme. Pourtant, le multi-GPU était juste assez populaire pour continuer pendant des années, mais je pense que son sort a été décidé par un seul événement: le lancement de la GTX 1080 en 2016.

La série GTX 10 de Nvidia n'était vraiment que la série GTX 9 sur le tout nouveau 16 nm de TSMC, mais cela seul était un gros problème puisque Nvidia avait passé trois générations entières sur 28 nm en raison de le déclin de la loi de Moore. En passant de 28 nm à 16 nm, la GTX 1080 était plus de 50 % plus rapide que la GTX 980 et 30 % plus rapide que la GTX 980 Ti. Le 1080 prenait également en charge le SLI et son TDP était relativement faible à 180 W, mais les performances brutes avec un seul 1080 étaient insensées en 2016.

Alors que les jeux sur PC utilisant plusieurs graphiques ne reviennent apparemment jamais, la porte du multi-GPU est en fait ouverte.

Cela a été encore amélioré avec la GTX 1080 Ti l'année suivante, augmentant les performances de près de 30 % supplémentaires. Un seul 1080Ti était presque deux fois plus rapide qu'un 980 Ti et aurait certainement été une solution supérieure à deux 980 Ti en SLI. Personne sain d'esprit ne voudrait vraiment deux 1080 Ti en SLI, non seulement parce que ça aurait été chaud et bruyant, mais aussi parce que deux fois les performances d'un 1080 Ti auraient été complètement exagérées (et également impossible pour la plupart des jeux avec SLI officiel soutien). Imaginez à quel point ce serait fou d'avoir deux RTX 4090 en SLI.

Le jeu multi-GPU pourrait faire son retour

Alors que les jeux sur PC utilisant plusieurs graphiques ne reviennent apparemment jamais, la porte du multi-GPU est en fait ouverte. Si vous connaissez les processeurs AMD, vous saurez que ses puces de bureau haut de gamme et tous ses processeurs de station de travail et de serveur utilisent plusieurs puces CPU ensemble au lieu d'un seul gros processeur. L'utilisation de nombreuses puces plus petites (également appelées puces) est une technologie qu'AMD a commencé à utiliser en 2019, mais ce n'est qu'en 2022 qu'il a commencé à utiliser des chiplets pour ses GPU avec l'introduction du RX 7000 haut de gamme série.

Les cartes RX 7000 comme la RX 7900 XTX, cependant, n'ont que plusieurs puces de cache et de mémoire, et utilisent une seule puce GPU. Pourtant, il y a des raisons de croire qu'AMD pourrait commencer à utiliser plusieurs chiplets graphiques car cela réduirait les coûts de développement et de production tout en simplifiant la création de nouvelles cartes (il suffit d'ajouter ou de supprimer un chiplet et bam, nouveau GPU). Intel pourrait également aller dans la même direction puisqu'il est également en train de passer aux chiplets.

Bien qu'il semble que Nvidia n'ait absolument aucun intérêt pour les chiplets, il serait surprenant qu'AMD et Intel ne soient pas intéressés à ramener le multi-GPU avec des chiplets. Peut-être verrons-nous le retour du jeu multi-GPU avec la technologie moderne dans les années à venir s'il peut fonctionner suffisamment bien.