Die 6 schlechtesten Intel-CPUs aller Zeiten

Wenn man sich die Geschichte von Intel anschaut, findet man haufenweise schreckliche CPUs, von denen viele für jedes andere Unternehmen den finanziellen Ruin verursacht hätten.

Quicklinks

  • Pentium 4: Intels erste große Katastrophe
  • Itanium: Intels Träume von 64-Bit verschwinden
  • Atom: So schnell wie ein Atom groß ist
  • Core i7-7700K: Intel hört auf, es zu versuchen
  • Core i3-8121U: Wir reden nicht über 10 nm
  • Core i9-11900K: Liftoff gelingt nicht
  • Ein Comeback, aber zu welchem ​​Preis?

Intel profitierte zuletzt von seinem Erfolg Chips der 13. Generation für den Mainstream und Xeon-Prozessoren der vierten Generation für Server und Workstations, mit dem Core i9-13900K sogar mit knapper Mehrheit die Leistungskrone erobert. Dies war so etwas wie ein Comeback, da Intel jahrelang mit der Technologie zu kämpfen hatte Im Jahr 2022 bekamen wir endlich die verheerenden finanziellen Auswirkungen zu spüren, die der Verlust des Vorsprungs in diesem Bereich gegenüber den anderen mit sich brachte Konkurrenten. Wenn Sie auf die Geschichte von Intel zurückblicken, werden Sie jede Menge schreckliche CPUs finden, und bei einigen davon werden Sie sich fragen, warum Intel erst seit kurzem in finanzielle Probleme gerät.

Pentium 4: Intels erste große Katastrophe

In den frühen 2000er Jahren waren CPUs viel einfacher als heute, und die meisten Verbesserungen von Generation zu Generation konzentrierten sich auf Taktraten. Tatsächlich wurden CPUs oft nach ihrer Taktrate und nichts anderem benannt. Als Intel seine Net-Burst-Architektur der nächsten Generation entwickelte, lag es auf der Hand, der Frequenz hinterherzujagen, und das Unternehmen hatte große Pläne, Pläne, die ebenso aus dem Ruder liefen.

AMD war das erste Unternehmen, das mit dem Athlon 1000, der im März 2000 auf den Markt kam, eine 1-GHz-CPU auf den Markt brachte, aber Intel hatte bereits die 2-GHz-Grenze im Blick. Ende des Jahres wurden die ersten Pentium-4-CPUs auf den Markt gebracht. Das schnellste davon erreichte 1,5 GHz. In 2001, Intel war der erste, der 2 GHz nutzte mit seinem 2-GHz-Pentium-4-Chip und einem 3GHz-Modell folgte bald im Jahr 2002.

Allerdings hatten diese Frequenzen einen hohen Preis. Intel war gezwungen, die Pipeline von Net Burst außerordentlich lang zu machen, was bedeutete, dass die Anweisungen pro Takt (IPC) des Pentium 4 deutlich unter denen selbst älterer Intel-CPUs und denen von AMD lagen.

Zunächst funktionierte Intels Plan gut und Pentium-4-Chips schlugen in der Regel die Athlons von AMD. Intel hat seine Strategie verdoppelt indem die Pipeline von Net Burst noch länger gemacht wird, um höhere Taktraten zu erreichen. Im Jahr 2005 sollte ein 4-GHz-Pentium 4 auf den Markt kommen, dem in naher Zukunft eine 10-GHz-CPU folgen sollte. Intels Strategie basierte jedoch auf Dennard Scaling, das feststellte, dass die Frequenz mit jeder Generation anstieg, ohne dass mehr Leistung erforderlich war. Im Jahr 2005 stellte Intel fest, dass die Dennard-Skalierung nicht mehr angewendet wurde und dass sogar 4 GHz schwer zu erreichen waren, was dazu führte Abschaffung des 4GHz Pentium.

Intels Entscheidung, den IPC zu reduzieren, um höhere Frequenzen zu erreichen, hatte katastrophale Folgen, als diese Frequenzgewinne versiegten und AMD 2004 die Führung übernahm. Letztendlich hat Intel Net Burst abgeschafft und eine brandneue Architektur entwickelt, die wie bei den meisten modernen CPUs dem IPC Vorrang vor Frequenzgewinnen einräumt.

Itanium: Intels Träume von 64-Bit verschwinden

Zur gleichen Zeit, als Intel Net Burst für Desktops auslieferte, bereitete Intel einen äußerst ehrgeizigen Plan für Server-CPUs vor. Die x86-Architektur, die verwendet wurde Die CPUs von Intel und AMD waren auf 32-Bit-Berechnungen beschränkt, und für den aufstrebenden Servermarkt wollte Intel 64-Bit-Prozessoren mit noch nie dagewesener Leistung entwickeln Geschwindigkeiten. Intel lehnte die Idee ab, eine 64-Bit-Version von x86 zu erstellen, und arbeitete mit HP zusammen, um diese zu entwickeln brandneue IA-64-Architektur, die Itanium-CPUs antreibt. Die ersten Itanium-Chips waren für 1999 geplant Start.

Die Entwicklung des Itanium war problematisch, Jedoch. Es wurde auf 2001 verschoben und das Budget begann in die Höhe zu schießen. Als es 2001 schließlich auf den Markt kam, war seine Leistung nicht gerade konkurrenzfähig mit anderen x86-CPUs, und nur die Fähigkeit des Itanium, in 64-Bit zu rechnen, war ein wichtiges Verkaufsargument. Aber Itanium hatte einen grundlegenden Fehler: Es konnte keine x86-Software ausführen. Die gesamte vorhandene Software musste für die IA-64-Architektur neu geschrieben werden, was keine leichte Aufgabe war.

Wenn Itanium beeindruckte, dann einfach deshalb, weil es sich weigerte zu sterben.

Bis 2003 hatte AMD seine eigene 64-Bit-Architektur namens AMD64 fertiggestellt, eine Version von x86 mit 64-Bit-Unterstützung. Intel hatte sich zuvor aus verschiedenen Gründen gegen diese Strategie entschieden, aber im Nachhinein war klar, dass Itanium ein Fehler war, da AMDs Opteron-Chips begannen, Marktanteile zu gewinnen. AMD64 wurde auch von großen Softwareunternehmen wie Microsoft unterstützt, die AMD64 als 64-Bit-Architektur ihrer Wahl wählten. Am Ende wurde AMD64 so beliebt, dass Intel seine eigenen AMD64-Serverchips namens Xeon herstellen musste, und aus AMD64 wurde x86-64.

Aber hier ist die Sache: Xeon hat Itanium nicht ersetzt. Intel und HP hegten jahrelang die Hoffnung, dass diese Dual-Architektur-Strategie aufgehen würde, selbst als Unternehmen wie Dell und IBM den Verkauf von Itanium-Servern einstellten. Itanium erhielt Mitte der 2000er Jahre keine jährlichen Updates mehr, der letzte Chip kam 2017 auf den Markt. Im Jahr 2020 wurde die Produktion endgültig eingestellt, jedoch nicht vorher Dies löste einen massiven Rechtsstreit zwischen Oracle und HP aus über Unterstützung. Wenn Itanium beeindruckte, dann einfach deshalb, weil es sich weigerte zu sterben.

Atom: So schnell wie ein Atom groß ist

Schließlich bereinigte Intel nach den Pentium-4- und Itanium-Fiasko und kehrte zu seiner traditionellen Führungsposition zurück. In den späten 2000er Jahren sah Intel Möglichkeiten, die über Desktops, Laptops und Server hinausgingen, da Geräte wie der iPod äußerst beliebt wurden. Aber Intel hatte größere Ambitionen als die Stromversorgung von Geräten, die in die Tasche passen; Es wollte Intel-CPUs in allem haben, was einen Prozessor haben könnte. Intel brauchte einen Chip, der klein, effizient und gerade schnell genug war, um auszukommen, also brachte das Unternehmen 2008 den Atom auf den Markt.

Nachdem es ein paar Jahre gedauert hatte, die Probleme der ersten Atom-Chips auszubügeln, war Intel bereit, den Atom Z600 auf den Markt zu bringen, der den Smartphone-Markt von Arm erobern sollte. Es verfügte über eine weitaus bessere Leistung als alles, was Arm bieten konnte, und hatte den gleichen Stromverbrauch. Anandtech war zuversichtlich, dass die Z600 alles verändern würdeEr sagte: „Der Smartphone-Markt wird in fünf Jahren nicht wie eine Erweiterung dessen aussehen, was wir heute sehen.“

Warum verfügt Ihr Telefon oder Toaster also nicht über eine Atom-CPU? Der vielleicht wichtigste Grund ist, dass x86 noch nie für Smartphones oder andere Geräte verwendet wurde und die Software daher neu geschrieben werden musste. Das war im Grunde der gleiche Fehler, den Intel mit Itanium gemacht hat, und Es hat seine Smartphone-Pläne nach sechs Jahren eingestellt. Es hat wahrscheinlich auch nicht geholfen, dass Atoms einziger Anspruch auf Ruhm das Netbook und die Geräte für das „Internet der Dinge“ waren.

Aber vor kurzem hat Intel endlich ein Zuhause für Atom in Netzwerkgeräten und seinen neuen Hybrid-CPUs wie dem 13900K gefunden, der über 16 E-Kerne verfügt stammt von Atom-CPUs ab. Das ändert nichts an der Tatsache, dass Atom über ein Jahrzehnt lang eine Katastrophe war, aber zumindest ist es für etwas nützlich Jetzt.

Core i7-7700K: Intel hört auf, es zu versuchen

Intel ersetzte Net Burst durch Core, eine Architektur, die ein Gleichgewicht zwischen IPC und Frequenz fand, und sie war sofort ein Erfolg. CPUs wie der Core 2 Duo E6300 und der Core 2 Quad Q6600 waren viel schneller als AMDs enttäuschender Nachfolger des Athlon, Phenom. Der erneute Vormarsch von Intel im PC-Bereich gipfelte 2011 im Showdown zwischen der Sandy Bridge der zweiten Generation und den FX Bulldozer-CPUs von AMD, den Intel mit Leichtigkeit gewann. Intel war erneut auf dem Vormarsch.

Wie hat Intel diese Dynamik fortgesetzt? Indem im Wesentlichen immer wieder dieselbe CPU gestartet wird. Das heißt nicht, dass Intel überhaupt keine Fortschritte gemacht hat; Das Unternehmen folgte dem „Tick-Tock“-Modell, bei dem Intel in jeder Generation eine CPU mit einem neuen Fertigungsknoten (Tick) und dann eine CPU mit einer neuen Architektur (Tock) herausbrachte, was sich immer wieder wiederholte. Aber diese technologischen Fortschritte führten nicht mehr zu signifikanten Leistungs- und Wertsteigerungen wie in der Vergangenheit, und das lag daran, dass Intel nicht mehr mithalten musste.

Der Core i7-7700K war vielleicht der berüchtigtste dieser Chips, da es sich im wahrsten Sinne des Wortes um einen Core i7-6700K mit ein paar zusätzlichen MHz handelte.

Das Endergebnis war der Kaby Lake der siebten Generation, der 2017 auf den Markt kam und weder eine Zecke noch ein Problem war Tock, sondern eine „Optimierung“, das heißt, es handelte sich nur um CPUs der letzten Generation mit höherem Takt Geschwindigkeiten. Der Core i7-7700K war vielleicht der berüchtigtste dieser Chips, da es sich im wahrsten Sinne des Wortes um einen Core i7-6700K mit ein paar zusätzlichen MHz handelte. PCGamesN war in seiner Rezension besonders vernichtend, es sei „ein deprimierendes Stück Silizium“.

Diese Geschichte hat ein glückliches Ende, denn zwei Monate später feierte AMD mit der Einführung seines Ryzen endlich sein Comeback 1000 CPUs. Diese Chips der ersten Generation waren keine Gewinner im Gaming-Bereich, verfügten aber über einen erstaunlichen Multi-Core Leistung. Der Ryzen 7 1700 übertraf den 7700K praktisch bei jeder Multi-Core-Arbeitslast und kostete dabei etwa das Gleiche. Das Sahnehäubchen war Intels Eile, seine CPUs der achten Generation noch im selben Jahr auf den Markt zu bringen, was bedeutete, dass Kaby Lake es nicht einmal ein ganzes Jahr schaffte, bevor es veraltet war.

Core i3-8121U: Wir reden nicht über 10 nm

Obwohl Intel kein Problem damit hatte, dieselbe CPU zweimal hintereinander auf den Markt zu bringen, sollte Kaby Lake nie existieren. Intel hatte immer vorgehabt, am Tick-tock-Modell festzuhalten und nach der sechsten Generation eine 10-nm-CPU auf den Markt zu bringen, aber die Entwicklung des 10-nm-Knotens des Unternehmens lief schlecht. Der Plan für 10 nm war äußerst ehrgeizig. Es sollte zusätzlich zu seiner höheren Effizienz eine fast dreifache Dichte von 14 nm aufweisen. Intel hätte wissen müssen, dass dies danach nicht mehr der Fall sein sollte hatte Mühe, seine 14-nm-CPUs rechtzeitig herauszubringen, aber es wollte technologische Überlegenheit, also machte es weiter.

Das ursprüngliche Ziel für 10 nm war 2015, aber da sich 14 nm verzögerten, galt dies auch für 10 nm. 2017 war der neue Starttermin, aber statt 10-nm-CPUs brachte Intel seine dritte und vierte 14-nm-CPU auf den Markt CPUs. Schließlich brachte Intel mit dem Core i3-8121U eine 10-nm-CPU auf Basis der Cannon-Lake-Architektur auf den Markt 2018. Leider bedeutete dies nicht den Beginn einer brandneuen CPU-Generation mit modernster Technologie, sondern das Ende der Führungsrolle von Intel.

Der Core i3-8121U im Jahr 2018 markierte das Ende der Führungsrolle von Intel.

Der 8121U war eine schreckliche Demonstration von 10 nm und ein schreckliches Produkt für sich. Der 10-nm-Knoten war so kaputt, dass Intel nur eine winzige Dual-Core-CPU mit absichtlich deaktivierter integrierter Grafik herstellen konnte, vermutlich weil diese nicht richtig funktionierte. Intel hatte mit 10 nm mehr abgebissen, als es ertragen konnte, und die Folgen der Hybris des Unternehmens würden seine Entwicklung für immer verändern. Da 10 nm in der Entwicklungshölle feststeckten, konnte sich Intel für alles, was ein erhebliches Maß an Leistung erforderte, nur auf 14 nm verlassen.

Nebenbei bemerkt: Intel listet auf seiner Website alle CPUs auf, die es in den letzten zwei Jahrzehnten auf den Markt gebracht hat Die Seite für den 8121U existiert noch, die Seite für alle 10-nm-Cannon-Lake-CPUs wurde gelöscht, fast so, als ob es Intel peinlich wäre.

Core i9-11900K: Liftoff gelingt nicht

Intel hat die 14-nm-Technologie jahrelang weiter vorangetrieben, und obwohl jede Generation mehr Kerne als die letzte brachte, änderte sich die Frequenz Die Gewinne aus jeder Verfeinerung um 14 nm wurden geringer und das Hinzufügen weiterer Kerne steigerte die Leistung dramatisch Verbrauch. Als Intel seine CPUs der 10. Generation auf den Markt brachte (die sechsten in Folge, die 14 nm verwendeten), verwendete AMD bereits 7 nm von TSMC für seine Ryzen 3000-CPUs. Intels Spitzenklasse Der Core i9-10900K konnte AMDs Ryzen 9 3900X nicht schlagen, das nicht einmal das Flaggschiff war und im Gegensatz zu AMD-CPUs keine PCIe 4.0-Unterstützung bot.

Wenn 10 nm keine Option wären, bliebe nur die Einführung einer neuen Architektur. Intel hat beschlossen, seine mobilorientierten Ice-Lake-Chips auf 14 nm umzuportieren, was zu einer dringend benötigten IPC-Steigerung von 19 % führte. Vielleicht hätte Intel das früher tun sollen, anstatt auf die siebte Generation der 14-nm-CPUs zu warten, aber besser spät als nie, oder?

Die Rocket-Lake-CPUs der 11. Generation verfügten also über eine brandneue Architektur, die jedoch ihren Preis hatte. Erstens bedeutete die Rückportierung einer CPU, die für einen viel dichteren Knoten ausgelegt war, dass die Kerne auf 14 nm massiv waren. Zweitens steigt auch der Stromverbrauch bei älteren Prozessen, was das Hinzufügen weiterer Kerne und die Erhöhung der Taktrate schwieriger macht. Das Endergebnis war das „Flaggschiff“ Core i9-11900K, das nur acht Kerne und eine Chipgröße von 276 mm² hatte – das sind weniger Kerne als der 10900K, aber größer.

Der 11900K war zum Scheitern verurteilt; es war technologisch rückständig und mit 539 Dollar viel zu teuer. Es konnte kaum mit dem 450 US-Dollar teuren Ryzen 7 5800X mithalten (ganz zu schweigen vom Ryzen 9 5900X und 5950X) und verlor sogar gegen den 10900K in allem, was nicht extrem Single-Threaded war. Es ist schockierend, dass Intel Forschung und Entwicklung in eine brandneue CPU gesteckt hat, die ihren Vorgänger nicht einmal überzeugend schlagen konnte. Es ist möglich, dass Rocket Lake ausschließlich zu dem Zweck entwickelt wurde, PCIe 4.0 auf eine Intel-Desktop-CPU zu bringen. Zumindest der Rest der Rocket-Lake-Reihe war ordentlich, da AMD aufgehört hat, im unteren und mittleren Preissegment zu konkurrieren.

Ein Comeback, aber zu welchem ​​Preis?

Mit seinen CPUs der 12. und 13. Generation ist Intel endlich zur Leistungsführerschaft im PC-Bereich zurückgekehrt, doch der Schaden ist bereits angerichtet. 10 nm sollte eigentlich 2015 auf den Markt kommen, wurde aber erst 2021 mit Alder Lake und Ice Lake für Server erfolgreich eingeführt. Sieben volle Jahre mit 14-nm-CPUs haben Intel auf einen bloßen Schatten seiner selbst reduziert, was nicht geschehen war, als Intel mit Pentium 4, Itanium oder Atom Fehler machte.

Ein gemeinsamer Nenner all dieser Fehler ist Intels Rücksichtslosigkeit und mangelnde Vorsicht. Intel ging davon aus, dass der Pentium 4 großartig sein würde und ohne Probleme 10 GHz oder sogar 30 GHz erreichen würde. Intel ging davon aus, dass Itanium das Rechenzentrum beherrschen würde, und dachte nie ernsthaft über die Möglichkeit nach, dass niemand jedes einzelne Stück x86-Software neu schreiben wollte. Intel ging davon aus, dass Atom einfach deshalb erfolgreich sein würde, weil es sich um eine großartige Hardware handelte. Intel ging davon aus, dass seine Ingenieure alles schaffen könnten, und strebte einen lächerlichen Generationsgewinn bei 10 nm an.

Andererseits ist es auch ziemlich ironisch, dass zwei der bekanntesten Misserfolge von Intel dem Unternehmen ein Comeback ermöglicht haben. Hybrid-Architektur-CPUs wie der 13900K sind nur dank Atom möglich, und ohne E-Cores wären diese CPUs einfach zu groß und leistungshungrig. 10 nm spielt auch eine große Rolle bei Intels Comeback, da es die Chips des Unternehmens in etwa mit denen von TSMC gleichsetzt. Hoffentlich hat diese Katastrophe mit 10 nm Intel ein neues Verständnis dafür vermittelt, wie Pläne schiefgehen können.