6 pires processeurs Intel de tous les temps

click fraud protection

Si vous parcourez l'histoire d'Intel, vous découvrirez des tonnes de processeurs épouvantables, dont beaucoup auraient causé la ruine financière de n'importe quelle autre entreprise.

Liens rapides

  • Pentium 4: le premier grand désastre d'Intel
  • Itanium: les rêves d'Intel du 64 bits s'évaporent
  • Atome: aussi rapide qu'un atome est grand
  • Core i7-7700K: Intel arrête d'essayer
  • Core i3-8121U: On ne parle pas de 10 nm
  • Core i9-11900K: échec du décollage
  • Un retour, mais à quel prix ?

Intel a récemment été porté par le succès de son Puces de 13e génération pour le grand public et processeurs Xeon de quatrième génération pour serveurs et postes de travail, avec le Noyau i9-13900K remportant même la couronne de performance d'un simple cheveu. Cela a été une sorte de retour, car Intel a connu des difficultés technologiques pendant des années et, en 2022, a finalement ressenti les effets financiers dévastateurs de la perte de l’avantage dans cet espace au cours de son concurrents. Si vous regardez l'histoire d'Intel, vous trouverez des tonnes de processeurs horribles, et certains d'entre eux vous feront vous demander comment Intel a commencé à rencontrer des problèmes financiers récemment.

Pentium 4: le premier grand désastre d'Intel

Au début des années 2000, les processeurs étaient beaucoup plus simples qu’aujourd’hui, et la plupart des améliorations de génération en génération se concentraient sur les vitesses d’horloge. En fait, les processeurs étaient souvent nommés d’après leur vitesse d’horloge et rien d’autre. Lorsque Intel développait son architecture Net Burst de nouvelle génération, il semblait évident d'essayer de rechercher la fréquence, et la société avait de grands projets, des projets qui ont déraillé de manière tout aussi importante.

AMD a été la première entreprise à lancer un processeur à 1 GHz avec l'Athlon 1000, lancé en mars 2000, mais Intel avait déjà les yeux rivés sur la barrière des 2 GHz. À la fin de l'année, elle avait lancé ses premiers processeurs Pentium 4, dont le plus rapide est arrivé à 1,5 GHz. En 2001, Intel a été le premier à 2 GHz avec sa puce Pentium 4 à 2 GHz, et un Modèle 3 GHz bientôt suivi en 2002.

Cependant, ces fréquences avaient un prix élevé. Intel a été contraint de rendre le pipeline de Net Burst extraordinairement long, ce qui signifiait que les instructions par horloge (IPC) du Pentium 4 étaient bien inférieures aux processeurs Intel encore plus anciens et à celles d'AMD.

Au début, le plan d'Intel fonctionnait bien et les puces Pentium 4 battaient généralement les Athlons d'AMD. Intel a doublé sa stratégie en allongeant encore plus le pipeline de Net Burst pour atteindre des vitesses d'horloge plus élevées. Un Pentium 4 à 4 GHz devait être lancé en 2005, suivi d'un processeur à 10 GHz dans un avenir proche. Cependant, la stratégie d'Intel reposait sur Dennard Scaling, qui observait que la fréquence augmentait à chaque génération sans avoir besoin de plus de puissance. En 2005, Intel avait découvert que Dennard Scaling n'était plus appliqué et que même 4 GHz était difficile à atteindre, ce qui a conduit à la annulation du Pentium 4 GHz.

La décision d'Intel de réduire l'IPC pour atteindre des fréquences plus élevées a eu des conséquences désastreuses lorsque ces gains de fréquence se sont taris, et AMD a pris les devants en 2004. Intel a fini par abandonner Net Burst et a conçu une toute nouvelle architecture qui donne la priorité à l'IPC plutôt qu'aux gains de fréquence, comme la plupart des processeurs modernes.

Itanium: les rêves d'Intel du 64 bits s'évaporent

Au même moment où Intel proposait Net Burst pour les ordinateurs de bureau, Intel préparait un plan extrêmement ambitieux pour les processeurs de serveur. L'architecture x86, utilisée pour Les processeurs Intel et AMD étaient limités au calcul 32 bits, et pour le marché émergent des serveurs, Intel souhaitait développer des processeurs 64 bits avec des performances jamais vues auparavant. vitesses. Intel a écarté l'idée de créer une version 64 bits de x86 et s'est associé à HP pour créer le la toute nouvelle architecture IA-64, qui alimentait les processeurs Itanium. Les premières puces Itanium étaient prévues pour 1999 lancement.

Le développement d'Itanium a été perturbé, cependant. Elle a été reportée à 2001 et le budget a commencé à monter en flèche. Lorsqu'il a finalement été lancé en 2001, ses performances n'étaient pas vraiment compétitives par rapport aux autres processeurs x86, et seule la capacité d'Itanium à calculer en 64 bits était un argument de vente majeur. Mais Itanium avait un défaut fondamental: il ne pouvait pas exécuter de logiciel x86. Tous les logiciels existants devaient être réécrits pour l'architecture IA-64, ce qui n'était pas une mince affaire.

Si Itanium était impressionnant, c'était simplement par son refus de mourir.

En 2003, AMD avait terminé sa propre architecture 64 bits appelée AMD64, qui était une version de x86 avec prise en charge 64 bits. Intel avait auparavant renoncé à cette stratégie pour diverses raisons, mais avec le recul, il était clair qu'Itanium était une erreur puisque les puces Opteron d'AMD ont commencé à grappiller des parts de marché. AMD64 a également bénéficié du soutien de grands éditeurs de logiciels comme Microsoft, qui a choisi AMD64 comme architecture 64 bits de choix. En fin de compte, AMD64 est devenu si populaire qu'Intel a dû créer ses propres puces de serveur AMD64 appelées Xeon, et AMD64 est devenu x86-64.

Mais voici le problème: Xeon n'a pas remplacé Itanium. Intel et HP ont espéré pendant des années que cette stratégie à double architecture fonctionnerait, même si des sociétés comme Dell et IBM arrêtaient de vendre des serveurs Itanium. Itanium a cessé de recevoir des mises à jour annuelles au milieu des années 2000, la dernière puce ayant été lancée en 2017. Sa production a finalement été interrompue en 2020, mais pas avant déclenchant un procès massif entre Oracle et HP sur le soutien. Si Itanium était impressionnant, c'était simplement par son refus de mourir.

Atome: aussi rapide qu'un atome est grand

Finalement, Intel a fait le ménage à la suite des fiascos des Pentium 4 et Itanium et est revenu à sa position de leader traditionnelle. À la fin des années 2000, Intel a vu des opportunités au-delà des ordinateurs de bureau, des ordinateurs portables et des serveurs, alors que des appareils comme l'iPod devenaient extrêmement populaires. Mais Intel avait de plus grandes ambitions que d'alimenter des appareils qui pouvaient tenir dans votre poche; il voulait des processeurs Intel dans tout ce qui pourrait éventuellement avoir un processeur. Intel avait besoin d'une puce petite, efficace et juste assez rapide pour fonctionner, c'est pourquoi en 2008, la société a lancé Atom.

Après avoir mis quelques années à résoudre les problèmes des premières puces Atom, Intel était prêt à lancer l'Atom Z600, censé conquérir le marché des smartphones d'Arm. Il offrait des performances bien supérieures à tout ce qu’Arm pouvait offrir et avait la même consommation d’énergie. Anandtech était convaincu que le Z600 allait tout changer, affirmant que "le marché des smartphones dans 5 ans ne ressemblera pas à une extension de ce que nous voyons aujourd'hui".

Alors, pourquoi votre téléphone ou votre grille-pain n'ont-ils pas de processeur Atom? La raison la plus importante est peut-être que x86 n’a jamais été utilisé pour les smartphones ou autres appareils, le logiciel devrait donc être réécrit. C'était fondamentalement la même erreur qu'Intel avait commise avec Itanium, et il a abandonné ses projets de smartphones après six ans. Le fait que le seul titre de gloire d'Atom soit le netbook et les appareils « Internet des objets » n'a probablement pas aidé non plus.

Mais récemment, Intel a finalement trouvé une place pour Atom dans les appareils réseau et ses nouveaux processeurs hybrides comme le 13900K, doté de 16 cœurs E. descendant des processeurs Atom. Cela ne change rien au fait qu'Atom a été un désastre pendant plus d'une décennie, mais au moins il est utile à quelque chose. maintenant.

Core i7-7700K: Intel arrête d'essayer

Intel a remplacé Net Burst par Core, une architecture qui a trouvé un équilibre entre IPC et fréquence, et ce fut immédiatement un succès. Les processeurs comme le Core 2 Duo E6300 et le Core 2 Quad Q6600 étaient beaucoup plus rapides que Le successeur décevant d'AMD à Athlon, Phenom. La nouvelle offensive d'Intel dans le domaine des PC a culminé avec la confrontation entre son Sandy Bridge de deuxième génération et les processeurs FX Bulldozer d'AMD en 2011, et Intel a facilement gagné. Intel était à nouveau en hausse.

Alors, comment Intel a-t-il continué sur cette lancée? En lançant essentiellement le même processeur encore et encore. Cela ne veut pas dire qu’Intel ne faisait aucun progrès; la société a suivi le modèle « tic-tac », dans lequel Intel a publié un processeur à chaque génération avec un nouveau nœud de fabrication (tick), puis un processeur avec une nouvelle architecture (tock), en répétant encore et encore. Mais ces progrès technologiques ont cessé de se traduire par des améliorations significatives des performances et de la valeur comme par le passé, et c'était parce qu'Intel n'avait plus besoin d'être compétitif.

Le Core i7-7700K était peut-être la plus tristement célèbre de ces puces puisqu'il s'agissait littéralement d'un Core i7-6700K avec quelques MHz supplémentaires.

Le résultat final a été le Kaby Lake de septième génération, lancé en 2017 et qui n’était ni une tique ni un tock mais plutôt une "optimisation", c'est-à-dire qu'il s'agissait simplement de processeurs de dernière génération avec une horloge plus élevée vitesses. Le Core i7-7700K était peut-être la plus tristement célèbre de ces puces puisqu'il s'agissait littéralement d'un Core i7-6700K avec quelques MHz supplémentaires. PCGamesN a été particulièrement cinglant dans sa critique, disant que c'était "une tranche de silicium déprimante".

Cette histoire connaît une fin heureuse car AMD fait enfin son grand retour deux mois plus tard en lançant son Ryzen 1000 processeurs. Ces puces de première génération n'étaient pas gagnantes dans le domaine des jeux, mais elles possédaient d'étonnants processeurs multicœurs. performance. Le Ryzen 7 1700 a battu le 7700K dans pratiquement n'importe quelle charge de travail multicœur tout en coûtant à peu près le même prix. La cerise sur le gâteau a été la précipitation d'Intel pour sortir ses processeurs de huitième génération la même année, ce qui signifie que Kaby Lake n'a même pas réussi une année complète avant de devenir obsolète.

Core i3-8121U: On ne parle pas de 10 nm

Même si Intel était à l'aise avec le lancement du même processeur deux fois de suite, Kaby Lake n'était jamais censé exister. Intel avait toujours eu l'intention de s'en tenir au modèle tic-tac et de lancer un processeur 10 nm après la sixième génération, mais le développement se déroulait mal pour le nœud 10 nm de l'entreprise. Le plan pour 10 nm était extrêmement ambitieux. Il était censé avoir une densité presque triple de celle de 14 nm, en plus de son efficacité plus élevée. Intel aurait dû savoir qu'il ne fallait pas faire ça après a eu du mal à sortir ses processeurs 14 nm à temps, mais il voulait une supériorité technologique, alors il a continué.

L'objectif initial pour le 10 nm était 2015, mais comme le 14 nm a été retardé, le 10 nm l'a également été. 2017 était la nouvelle date de lancement, mais au lieu des processeurs 10 nm, Intel a lancé ses troisième et quatrième processeurs 14 nm. Processeurs. Enfin, Intel a lancé un processeur 10 nm basé sur l'architecture Cannon Lake, le Core i3-8121U, en 2018. Malheureusement, cela ne marquait pas le début d'une toute nouvelle génération de processeurs utilisant une technologie de pointe, mais la fin du leadership d'Intel.

Le Core i3-8121U de 2018 a marqué la fin du leadership d'Intel.

Le 8121U était une terrible démonstration de 10 nm et un produit terrible en soi. Le nœud 10 nm était tellement cassé qu'Intel n'a pu fabriquer qu'un minuscule processeur double cœur avec ses graphiques intégrés intentionnellement désactivés, probablement parce qu'ils ne fonctionnaient pas correctement. Intel avait mordu plus qu'il ne pouvait mâcher avec le 10 nm, et les conséquences de l'orgueil de l'entreprise allaient changer sa trajectoire pour toujours. Avec le 10 nm bloqué dans l’enfer du développement, Intel ne pouvait compter que sur le 14 nm pour tout ce qui nécessitait une quantité importante de performances.

En passant, Intel répertorie tous les processeurs lancés au cours des deux dernières décennies sur son site Web, et bien que la page du 8121U existe toujours, la page pour tous Processeurs Cannon Lake 10 nm a été supprimé, presque comme si Intel était gêné.

Core i9-11900K: échec du décollage

Intel a continué avec le 14 nm pendant des années, et bien que chaque génération ait apporté plus de cœurs que la précédente, la fréquence les gains de chaque raffinement de 14 nm devenaient plus petits et l'ajout de plus de cœurs augmentait considérablement la puissance consommation. Au moment où Intel a lancé ses processeurs de 10e génération (le sixième consécutif à utiliser le 14 nm), AMD utilisait déjà le 7 nm de TSMC pour ses processeurs Ryzen 3000. Le haut de gamme d'Intel Le Core i9-10900K n'a pas pu battre le Ryzen 9 3900X d'AMD, qui n'était même pas le produit phare et n'avait pas de support PCIe 4.0, contrairement aux processeurs AMD.

Si le 10 nm n’était pas une option, la seule chose à faire était d’introduire une nouvelle architecture. Intel a décidé de rétroporter ses puces Ice Lake orientées mobiles vers 14 nm, apportant une augmentation IPC indispensable de 19 %. Peut-être qu'Intel aurait dû le faire plus tôt au lieu d'attendre la septième génération de processeurs 14 nm, mais mieux vaut tard que jamais, n'est-ce pas ?

Les processeurs Rocket Lake de 11e génération étaient donc dotés d’une toute nouvelle architecture, mais cela avait un prix. Premièrement, le rétroportage d'un processeur conçu pour un nœud beaucoup plus dense signifiait que les cœurs étaient massifs en 14 nm. Deuxièmement, la consommation d’énergie augmente également sur les processus plus anciens, ce qui rend plus difficile l’ajout de cœurs et l’augmentation de la vitesse d’horloge. Le résultat final a été le Core i9-11900K « phare », qui avait huit cœurs maigres et une taille de puce de 276 mm2 – soit moins de cœurs que le 10900K tout en étant plus grand.

Le 11900K était voué à l’échec; c'était technologiquement arriéré et beaucoup trop cher à 539 $. Il pouvait à peine égaler le Ryzen 7 5800X à 450 $ (sans parler des Ryzen 9 5900X et 5950X) et même perdu face au 10900K dans tout ce qui n'était pas extrêmement monothread. Il est choquant qu'Intel ait dépensé en R&D sur un tout nouveau processeur qui ne pouvait même pas battre son prédécesseur de manière convaincante. Il est possible que Rocket Lake ait été créé dans le seul but d'obtenir PCIe 4.0 sur un processeur de bureau Intel. Au moins le reste de la gamme Rocket Lake était décent depuis qu'AMD a cessé de rivaliser dans le bas de gamme et le milieu de gamme.

Un retour, mais à quel prix?

Avec ses processeurs de 12e et 13e génération, Intel est enfin revenu au leadership en termes de performances sur PC, mais le mal est déjà fait. Le 10 nm était censé être lancé en 2015, mais il n'a été lancé avec succès qu'en 2021 avec Alder Lake et Ice Lake pour les serveurs. Sept années complètes de processeurs 14 nm ont réduit Intel à l'ombre de lui-même, ce qui ne s'était pas produit lorsque Intel avait raté le Pentium 4, l'Itanium ou l'Atom.

Le point commun entre tous ces échecs est l’imprudence et le manque de prudence d’Intel. Intel a supposé que le Pentium 4 serait génial et atteindrait 10 GHz, voire 30 GHz, sans problème. Intel a supposé qu'Itanium dirigerait le centre de données et n'a jamais sérieusement envisagé la possibilité que personne ne veuille réécrire chaque élément du logiciel x86. Intel pensait qu'Atom réussirait simplement parce qu'il s'agissait d'un excellent matériel. Intel pensait que ses ingénieurs pouvaient tout faire et visait un gain générationnel ridicule en 10 nm.

D'un autre côté, il est également assez ironique que deux des échecs les plus médiatisés d'Intel aient permis à l'entreprise de faire son retour. Les processeurs à architecture hybride comme le 13900K ne sont possibles que grâce à Atom, et sans E-cores, ces processeurs seraient tout simplement trop gros et gourmands en énergie. Le 10 nm joue également un rôle majeur dans le retour d'Intel, car il place les puces de l'entreprise à peu près à parité avec celles fabriquées par TSMC. Espérons que ce désastre avec le 10 nm ait donné à Intel une nouvelle appréciation de la façon dont les plans peuvent mal tourner.