7 pires GPU de tous les temps

click fraud protection

Il y a de mauvais GPU, et puis il y a des GPU que nous n'oublierons jamais à cause de leur désastre.

Il n'est pas difficile d'obtenir un mauvais GPU. Il doit juste avoir une valeur médiocre, une sorte d'inconvénient paralysant ou simplement être une déception. Il existe de nombreuses cartes qui incarnent une ou deux de ces caractéristiques, mais de temps en temps, nous assistons à des moments magiques où une carte graphique frappe les trois.

Qu'on parle de les meilleurs GPU de tous les temps ou le pire, il est assez difficile de réduire les gagnants (ou les perdants dans ce cas) à seulement sept. Heureusement, je suis un peu connaisseur en cartes graphiques horribles et Matériel informatique en général, voici donc mes choix pour les pires GPU jamais lancés.

1 Nvidia GeForce GTX 480: le « G » dans GPU signifie grill

Source: Hyins

Dans la décennie qui a suivi l'émergence de la carte graphique moderne, il n'y avait en fait pas trop de mauvaises ceux-ci, et quand il y en avait, ils avaient un impact minime puisque l'industrie reculait si rapidement alors. Il était assez courant de voir les GPU de nouvelle génération battre leurs prédécesseurs de plus de 50 %, et 100 % ou plus n'était pas rare. Mais en 2010, les choses se compliquent, notamment pour Nvidia. Il essayait de créer un GPU massif sur le 40 nm de TSMC, qui était en quelque sorte cassé. Le résultat final a été la pire gaffe technologique jamais commise par Nvidia: Fermi, qui alimentait la GTX 480.

Parce que la série 400 a dû être retardée en raison de ces difficultés, AMD avait pris la couronne de performance de Nvidia avec sa série Radeon HD 5000 fin 2009 et l'a conservée pendant six mois. La 480 a récupéré la couronne avec 10 % d'avance sur la Radeon HD 5870, mais à un prix exorbitant: 500 $, contre 380 $ pour la 5870. Et ce n'était que le prix littéralement terrible; il est devenu encore plus cher compte tenu de la consommation électrique massive du 480. Dans Anandtech's essai, la carte a consommé bien plus de 200 W sous charge et a atteint plus de 90 degrés Celsius. Si vous avez déjà entendu parler de "la façon dont il est censé être grillé", c'est à cela qu'il faisait référence.

La GTX 480 était bien trop chaude, bien trop bruyante et bien trop chère.

Qu'il suffise de dire que la GTX 480 n'a pas réussi malgré ses performances. Il faisait beaucoup trop chaud, beaucoup trop bruyant et beaucoup trop cher. Nvidia a rapidement sorti la série GTX 500 six mois plus tard, profitant de la maturité accrue du nœud 40 nm et des améliorations au niveau de l'architecture pour augmenter l'efficacité. Un processeur est indéniablement mauvais s'il doit être remplacé après des mois plutôt que des années, et la série GTX 400 est l'une des gammes de produits les plus éphémères de l'histoire du GPU.

2 AMD Radeon R9 390X: des restes de deux ans

Source: MSI

Quelques années après la débâcle de la GTX 480, les choses sont revenues à la normale. Nvidia a réussi à rester au top avec la série GTX 500, mais le marché est redevenu compétitif à partir de 2012, Nvidia perdant pied au profit du R9 290X d'AMD fin 2013. AMD était donc là, au sommet du monde après une autre longue lutte pour revenir à la première place. Quelle était la prochaine étape pour cet outsider avec un nouveau souffle de vie?

Troubles financiers et faillite potentielle, en fin de compte. Bien que les GPU d'AMD aient été assez compétitifs avec ceux de Nvidia la plupart du temps, ils ne faisaient pas de profit, et au moment où le 290X est sorti, la société n'avait pratiquement plus d'argent pour la R&D. Sa prochaine génération de GPU n'est sortie qu'en 2015, plus d'un an après la légendaire série GTX 900 de Nvidia, mais la "nouvelle" série Radeon 300 lancée en 2015 était tout sauf. C'était littéralement une copie conforme de la série 200 avec des ajustements mineurs.

La série 300 n'était pas le GPU dont AMD avait besoin pour être lancé en 2015.

Un ajout particulièrement mauvais était le R9 390X, qui était un 290X renommé. Malgré sa consommation électrique élevée de plus de 300 W à pleine charge, les critiques étaient quelque peu positives et la présentaient comme une alternative moins chère à la GTX 980. Cependant, je ne suis pas sûr que les données des tests soutiennent cette conclusion. TechPowerUp a constaté que le 390X ne pouvait correspondre au 980 qu'à 4K, où le framerate était généralement inférieur à 60 FPS et parfois inférieur à 30 FPS. Pendant ce temps, la GTX 970 correspondait à la 390X à 1080p pour 100 $ de moins, ce qui en faisait une bien meilleure affaire (sans parler de plus efficace).

La série 300 n'était pas le GPU dont AMD avait besoin pour être lancé en 2015. C'était un an de retard et presque exactement ce que les gens ont obtenu en 2013. AMD a également lancé les R9 Fury et R9 Fury X, qui étaient en fait de nouvelles cartes phares, mais cela n'a pas tout à fait recréé le moment 290X. AMD ne tenterait pas vraiment de reprendre la couronne des performances pendant des années.

3 Nvidia GeForce RTX 2080: Le début de la fin

Source: Nvidia

Les erreurs technologiques sont souvent ce qui finit par condamner les cartes graphiques terribles, mais parfois même les GPU les plus avancés peuvent tout gâcher. La série RTX 20 a été lancée en 2018 au plus fort du règne de domination de six ans de Nvidia. Malgré le manque de compétitivité d'AMD, Nvidia a toujours réussi à offrir une amélioration de 30 à 50 % de la valeur à chaque génération. Avec la série 20, cependant, Nvidia a décidé de faire quelque chose de différent.

En fin de compte, la série RTX 20 a été un tournant majeur dans l'histoire des GPU de jeu et de la pire des manières possibles.

En tant que premiers GPU de jeu au monde à prendre en charge le traçage de rayons en temps réel accéléré par le matériel et la mise à l'échelle de la résolution de l'IA, Nvidia a estimé qu'il était justifié d'augmenter les prix. Après tout, la série 20 était beaucoup, beaucoup plus rapide que la série 10 précédente avec lancer de rayons et DLSS, donc ce serait toujours une grande valeur, non? Malheureusement, il n'y avait littéralement aucun jeu avec l'une ou l'autre technologie jusqu'en 2019. Ainsi, le jour du lancement, le RTX 2080 n'était essentiellement qu'un autre GTX 1080 Ti (avec moins de VRAM). Techspot n'a pas été impressionné, disant "nous obtenons des performances similaires à celles de la GTX 1080 Ti pour une hausse de prix de 20 %".

Bien que j'aie distingué le RTX 2080 ici, le RTX 2070 et le RTX 2060 étaient à peu près aussi mauvais, n'offrant pratiquement rien en termes d'amélioration de la valeur réelle. Les promesses concernant certains jeux bénéficiant du ray tracing et du DLSS ont également été régulièrement rompues en 2018 et 2019. Nvidia a finalement rectifié la situation en lançant la série RTX 20 Super six mois plus tard, un peu comme la façon dont Nvidia a sorti la série GTX 500 six mois après la série GTX 400. Mais finalement, la série RTX 20 a été un tournant majeur dans l'histoire du GPU de jeu et de la pire des manières possibles.

4 AMD Radeon VII: le fleuron oublié d'AMD

Source: AMD

Bien que la série RTX 20 ne soit en aucun cas une excellente gamme de produits, elle a encore mis AMD encore plus loin derrière car le le nouveau RTX 2080 Ti était 30% plus rapide que le GTX 1080 Ti, et le RX Vega 64 d'AMD ne correspondait qu'au GTX 1080 (sans Ti). Il fallait faire quelque chose, mais les prochaines cartes d'AMD utilisant la conception Navi 7 nm ne seraient pas disponibles avant la mi-2019. Mais alors quelqu'un chez AMD a réalisé quelque chose: ils avaient déjà un GPU 7 nm, une version 7 nm de Vega conçue pour les centres de données. Il n'allait pas battre le 2080 Ti, mais quelque chose vaut mieux que rien, n'est-ce pas ?

Eh bien, la Radeon VII aurait probablement mieux fait de ne pas exister. Comme les Vega 56 et 64 14 nm, il était assez inefficace et bien qu'il corresponde à peu près au RTX 2080, il l'a fait en consommant environ 70 watts de plus. Il ne supportait pas non plus la technologie de traçage de rayons ou de mise à l'échelle, et la cerise sur le gâteau était son prix de 700 $, qui était le même que le 2080.

AMD a probablement perdu de l'argent sur la Radeon VII et ce n'était même pas un bon GPU !

Mais peut-être que la pire chose pour AMD était que, puisqu'il s'agissait d'un GPU de centre de données, il était livré avec 16 Go de mémoire HBM2 extrêmement chère. AMD a probablement perdu de l'argent sur la Radeon VII et ce n'était même pas un bon GPU !

Parce que le RX 5700 XT a été lancé quelques mois plus tard à 400 $ et avait environ 90% des performances de la Radeon VII, cet ancien fleuron du GPU a été largement oublié, et pour cause. Il n'ajoutait rien de nouveau et son nom était horrible. Sérieusement, Radeon VII est un nom de produit terrible. Je suppose qu'AMD est assez gêné par tout cela, car sa page de produit officielle a depuis été supprimée du site Web de l'entreprise.

5 Intel Xe LP: le gros GPU intégré d'Intel qui ne pouvait tout simplement pas gagner

Source: Intel

Pour parler du premier et du pire GPU de jeu d'Intel, nous devons prendre un peu de recul. En 2015, Intel a réussi un coup majeur en recrutant le vice-président d'AMD, Ari Rauch, pour diriger le développement d'une nouvelle architecture graphique. Ce GPU n'était pas censé affronter des cartes haut de gamme voire milieu de gamme mais était destiné à être couplé à un futur CPU Intel. En tant que GPU intégré, il était censé essayer les puces pour ordinateurs portables MX de Nvidia et les APU d'AMD, et en cas de succès, ce serait formidable pour Intel et mauvais pour ses rivaux.

En 2018, Intel réussirait un autre coup sous la forme de Raja Koduri, qui a quitté son poste de chef de La division Radeon d'AMD pour rejoindre Intel en tant qu'architecte en chef, et il avait des ambitions au-delà de l'intégration graphique. Il a élargi la portée des plans graphiques d'Intel et a commencé le développement sur des cartes de jeu discrètes et des GPU de centre de données en plus aux puissants graphiques intégrés, créant la gamme Xe avec Xe LP en bas, Xe HP au milieu et Xe HPC en haut. Xe LP ferait ses débuts sur le nœud 10 nm d'Intel et obtiendrait également une version GPU discrète.

C'était cruel d'amener ce pauvre petit GPU dans un monde aussi hostile.

La première génération de la toute nouvelle carte graphique intégrée d'Intel a fait ses débuts avec les processeurs Ice Lake U en 2019, et elle a en fait battu Les APU Ryzen 3000 d'AMD. Ce n'était que le début cependant, et les puces Tiger Lake U avec un GPU entièrement intégré ont été lancées à la fin 2020. Mais malgré la présence de 50% de cœurs en plus que l'iGPU dans Ice Lake, les graphiques intégrés de Tiger Lake U étaient saccagé par les APU Ryzen 4000 d'AMD, et est loin de rendre les GPU MX de Nvidia obsolètes. DG1, le premier GPU de jeu discret de la société, était aussi assez mauvais et correspondait à peine à la GTX 1030.

Rauch n'a pu superviser que le lancement de l'iGPU d'Ice Lake U avant d'être licencié au début de 2020. Intel n'a pas mis à jour sa carte graphique intégrée depuis. Xe LP a été un échec non seulement parce que la conception était clairement mauvaise, mais probablement aussi parce que Xe HP et Xe HPC ont attiré plus d'attention. Arc Alchemist étant aussi décent qu'il l'est, il est difficile de reprocher à Intel d'avoir sacrifié Xe LP. Je dirai que faire DG1 était absolument inutile, et qu'il était cruel d'amener ce pauvre petit GPU dans un monde aussi hostile.

6 AMD Radeon RX 6500 XT: les pires paires avec les propres processeurs d'AMD

Source: XFX

La pénurie de GPU qui a commencé en 2020 a été désastreuse. Les cartes graphiques étaient incroyablement chères et certaines n'ont même pas été lancées avec des PDSF car cela ne voulait plus rien dire. Les personnes à petit budget ont été les plus touchées, car AMD et Nvidia ne lançaient pas de nouvelles cartes bas de gamme et les anciennes des générations précédentes coûtaient jusqu'à quatre fois le prix d'origine. Mais alors que la pénurie de GPU commençait à s'atténuer au début de 2022, AMD a finalement réussi à lancer des GPU d'entrée de gamme, et même si la barre était très basse, elle n'a pas réussi à la franchir.

Le RX 6500 XT n'était pas un GPU de jeu normal. Il a été conçu à l'origine pour les ordinateurs portables et consommait par conséquent très peu d'énergie et offrait très peu de performances, à peu près égales au RX 480 de 2016. Pour les 200 $ à 250 $ pour lesquels il a été lancé, ce n'était pas trop terrible, et le 6500 XT est depuis tombé à environ 150 $. Cependant, comme le 6500 XT a été conçu pour être couplé avec des ordinateurs portables utilisant des APU Ryzen 6000 avec PCIe 4.0, AMD a décidé de n'offrir que quatre voies PCIe, et si vous exécutiez le 6500 XT en mode PCIe 3.0, la performance était horrible.

AMD a finalement réussi à lancer des GPU d'entrée de gamme, et même si la barre était très basse, elle n'a pas réussi à la franchir.

Ce qui pousse le 6500 XT au-delà de la ligne dans les ordures chaudes, c'est que les processeurs Ryzen budgétaires de l'entreprise, qui ont été lancés exactement au même moment, n'ont pas prennent en charge PCIe 4.0 puisqu'il s'agissait d'APU recyclés qui n'avaient que PCIe 3.0. Un sou AMD pincé si fort que jumeler un processeur AMD avec un GPU Radeon était un mauvais idée. Le 6500 XT a beaucoup plus de sens avec une puce Intel bas de gamme de 12e ou 13e génération. Ce serait beaucoup plus drôle si ce n'était pas littéralement le seul nouveau GPU à moins de 200 $ vaut vraiment la peine d'être acheté, cependant.

7 Nvidia GeForce RTX 3050: Une carte d'entrée de gamme inabordable

Nvidia a adopté une approche différente d'AMD en ce qui concerne le segment budgétaire, qui consiste à prétendre qu'il n'existe tout simplement pas. Ce n'était pas vraiment un problème pendant la pénurie de GPU, car presque tous les GPU se vendaient cent dollars de plus. de toute façon, mais une fois que les choses ont commencé à se calmer, il est devenu clair que le RTX 3050 était une carte d'entrée de gamme affreuse pour un prix inabordable prix.

Lancé environ une semaine après le 6500 XT au début de 2022, le 3050 semblait au début assez décent GPU, avec un rapport qualité-prix à peu près égal au RX 6600, qui était 30% plus rapide mais aussi environ 30% de plus cher. Au cours de 2022, tous les GPU se vendaient à des prix de plus en plus bas à mesure que la pénurie se résorbait, et lorsque les GPU RTX 30 ont finalement cessé de baisser de prix entre le milieu et la fin de 2022, les cartes AMD ont continué. Aujourd'hui, les RTX 3050 les moins chers ne sont disponibles que pour un peu moins de 300 $, tandis que le RX 6600 beaucoup plus rapide peut être trouvé pour un peu plus de 200 $.

C'est une chose que le RX 6500 XT soit un GPU à mauvais budget, mais au moins c'est un nouveau GPU disponible pour 150 $. Nvidia a tout simplement abandonné la fabrication de GPU d'entrée de gamme en lançant le 3050, qui n'est même pas une bonne carte en soi avec les prix actuels. Bien sûr, Nvidia dira que la prime en vaut la peine car vous obtenez DLSS, mais même avec DLSS activé, le 3050 pourrait ne correspondre ou dépasser à peine le RX 6600 pour près de 100 $ de plus. Le 3050 est symptomatique de la direction que prend Nvidia depuis la série RTX 20, et il ne montre aucun signe de changement de cap.

La concurrence pour la pire carte graphique va devenir encore plus féroce

Les choses ne sont pas aussi sombres et catastrophiques avec la dernière génération de GPU que je ne le pensais. J'ai dit un jour que le RTX 4070 pourrait coûter autant que le RX 7900 XTX (c'est 400 $ moins cher) et que le RTX 4060 coûterait au moins 400 $ (c'est 300 $). Mais même si la valeur ne s'aggrave pas, le fait qu'elle ne s'améliore pas est toujours assez terrible. C'est également assez grave lorsque les GPU d'entrée de gamme commencent maintenant à environ 300 $ alors qu'ils commençaient à seulement 100 $. Les jeux sur PC de bureau deviennent rapidement inabordables.

L'époque des bonnes améliorations de la valeur d'une génération à l'autre est révolue depuis longtemps; nous devrons nous contenter d'une amélioration de 10 % du rapport qualité-prix tous les ans ou tous les deux ans. AMD et Nvidia sont dans une course pour le bas pour voir quelle entreprise peut amener les gens à payer le plus pour la pire carte graphique. Si vous pouvez vous permettre les primes sans cesse croissantes pour de bonnes cartes graphiques, alors c'est très bien. Mais pour tous ceux qui ne peuvent pas débourser des centaines de dollars pour la même performance que nous avons eue la dernière génération, ça craint.