Die 7 besten CPUs aller Zeiten

click fraud protection

Die CPU ist möglicherweise nicht aufregend, weshalb wir immer erkennen können, wann eine wirklich großartige CPU auf den Markt kommt.

Sofern Sie nicht die höchstmöglichen Frameraten anstreben oder eine leistungsstarke Workstation bauen möchten, ist die CPU nicht gerade der aufregendste Teil des PC-Bauprozesses. Natürlich ist es cool, viele Kerne und hohe Taktraten zu sehen, aber die meisten von uns wollen einfach nur Spiele spielen, und dafür braucht man nichts Besonderes. Allerdings können wir deshalb erkennen, wann eine wirklich großartige CPU auf den Markt kommt; Es gibt uns einen Grund, uns über eine Komponente zu freuen, die normalerweise nicht so wichtig ist.

Wenn man bedenkt, dass die ersten CPUs vor Jahrzehnten auf den Markt kamen, ist es schwierig, die 50 besten Chips auszuwählen, geschweige denn die besten sieben. Aus Gründen der Konsistenz werde ich mich auf verbraucherorientierte Chips konzentrieren, die seit Ende der 90er Jahre auf den Markt kamen (was alles abdeckt, was wir als modern bezeichnen würden). Viele dieser Tipps werden jedoch auch von ihren Rechenzentrums- und mobilen Gegenstücken beeinflusst, auf die ich noch näher eingehen werde. Diese Liste ist keineswegs vollständig, deckt jedoch einige der größten Wendepunkte in der CPU-Geschichte ab.

1 Athlon 1000: AMD durchbricht die GHz-Grenze

Quelle: Amazon

Der Beginn der modernen Ära der Desktop-CPUs begann Ende der 90er Jahre, als Intel seine Pentium II-Prozessoren und AMD seine K6-Chips auf den Markt brachten. Dies waren einige der allerersten CPUs, die auf renommierten Websites wie getestet wurden Anandtech Und Toms HardwareMöglich wurde dies durch die Spitzentechnologie des Internets und die Tatsache, dass Menschen einzelne Computerkomponenten im Einzelhandel kaufen konnten, anstatt einen ganzen Computer kaufen zu müssen.

Intel und AMD waren zudem nur wenige Jahre von einem entscheidenden Rechtsstreit entfernt, der schließlich zugunsten von AMD entschied und dem Unternehmen das Recht einräumte, eigene Lösungen zu entwickeln x86-CPUs. AMD ging von der Herstellung von Intel-Chips für Geräte wie IBMs Personal Computer zur Entwicklung und Herstellung eigener Prozessoren über, die in direkter Konkurrenz zu denen von Intel stehen. AMD-CPUs waren im Allgemeinen günstiger als die von Intel, um konkurrenzfähig zu sein, und schließlich entschied AMD, dass es an der Zeit war, sich für Gold zu entscheiden.

Im Sommer 1999 stellte AMD die allererste CPU seiner Athlon-Serie vor, benannt nach dem antiken Prozessor Griechisches Wort für „Wettbewerb“. Im Vergleich zu Intels Pentium-III-Chips, die erst wenige Monate zuvor auf den Markt kamen, Anandtech stellte fest, dass es sich um den Athlon 650 handelte (getaktet mit 650 MHz), das war der neue CPU-Champion. Interessanterweise konnte Intels Pentium III 650 (ebenfalls mit 650 MHz getaktet) nicht mit dem Athlon 650 mithalten, ein Hinweis darauf, dass AMDs Architekturdesign besser war als das von Intel.

In den neuen Monaten wechselten AMD und Intel hin und her und übertrafen sich gegenseitig mit höher getakteten Athlons und Pentiums, um die GHz-Grenze zu durchbrechen. Am Ende jedoch Es war AMDs Athlon 1000, der die Ziellinie überquerte Anfang 2000. Nur zwei Tage später kam Intels Pentium III 1GHz auf den Markt. obwohl es die Genugtuung hatte, der bessere Chip zu sein. Dennoch wurde der Athlon zu einem legendären Chip, der AMD an die Spitze brachte.

2 AMD Athlon 64 3000+: Die Zukunft ist AMD64

Quelle: AMD

Ziemlich bald nachdem AMD und Intel die GHz-Grenze durchbrochen hatten, war Intel an der Reihe, den Druck zu erhöhen. Das Unternehmen brachte Ende 2000 seine erste Pentium 4-CPU auf den Markt, deren zugrunde liegende Architektur, NetBurst, für diese entwickelt wurde ausdrücklicher Zweck, hohe Taktraten zu erreichen, und jede neue Generation von NetBurst würde höhere Frequenzen als die ergeben zuletzt. Dies stellte sicher, dass Intel im Rennen um die Taktgeschwindigkeit nicht wie beim Athlon überrascht werden würde.

Gleichzeitig gab es jedoch ein neues Rennen: das um 64-Bit-Computing. Die x86-Architektur war zu diesem Zeitpunkt nur 32-Bit, und offensichtlich können 32 Einsen und Nullen viel weniger Daten speichern als 64. Zu diesem Zweck führte Intel im Jahr 2001 die 64-Bit-Itanium-Architektur für den aufstrebenden Server-CPU-Markt ein. Aber es gab zwei Probleme: Itanium war nur für Server gedacht und kam nie auf Desktops, und Itanium war nicht x86 und konnte daher keine x86-Software ausführen. Diese beiden Faktoren eröffneten einem gewissen ehrgeizigen Intel-Konkurrenten hervorragende Chancen. Um das ins rechte Licht zu rücken: Etwa 20 Jahre später ist es x86-Software Trotzdem Wichtig für die Unterstützung von Desktop- und Server-CPUs.

Obwohl AMD zwischen 2000 und 2002 keine weltbewegenden Athlons auf den Markt brachte, gab es dafür einen guten Grund. Das Unternehmen entwickelte CPUs mit einer 64-Bit-Version von x86, genannt AMD64. Die Athlon 64-Serie führte die AMD64-Architektur in den Mainstream ein und debütierte gegen Ende 2003 mit dem Athlon 64 3200+ und dem Athlon 64 FX-51. Der eigentliche Star der Show war jedoch der Athlon 64 3000+, der nur wenige Monate später für 200 US-Dollar auf den Markt kam, halb so teuer wie der 3200+ und Intels 32-Bit-Pentium 4 mit 3,2 GHz. In seiner Rezension, Anandtech stellte fest, dass der 3000+ nur beiden CPUs hinterherhinkte, was ihn zu einem tollen Preis-Leistungs-Verhältnis und einem erschwinglichen 64-Bit-Chip macht.

Aber es ging nicht nur um den Desktop. AMDs 64-Bit-Opteron-Server-CPUs (die vor Athlon 64 auf den Markt kamen) hatten dank x86 einen erheblichen Vorteil gegenüber Itanium. Das Endergebnis war, dass AMD einen Marktanteil von über 25 % auf dem Servermarkt erreichte. Der Athlon 64 schlug sich auch recht gut gegen den Pentium 4, der aufgrund der ausgebliebenen erwarteten Frequenzgewinne ins Wanken geriet eintreten und die NetBurst-Architektur zum Scheitern bringen, die wichtige Funktionen für diese nicht vorhandene Uhr geopfert hatte Geschwindigkeitsgewinne. Während der Athlon 64 und der ursprüngliche Opteron zu AMDs besten CPUs zählen, Pentium 4 und Itanium gehören zu den schlechtesten von Intel.

3 Intel Core 2 Duo E6300: Intel macht dem Athlon endgültig den Garaus

Quelle: Intel

Intel hatte kein Glück. NetBurst war scheiße, Itanium funktionierte nicht und AMD fuhr Siege ein. Das erste, was Intel tat, um diese Situation zu korrigieren, bestand darin, OEMs solche bereitzustellen HP und Dell erhalten viel Geld über Rabatte als Gegenleistung für die Nutzung von Intel-CPUs, was man als Bestechung bezeichnen könnte. Obwohl die Rechtmäßigkeit dieser Rabatte zweifelhaft war, halfen sie Intel, seine traditionelle Dominanz aufrechtzuerhalten, und machten AMDs Gewinne bei Desktops und Servern zunichte. Aber Intel konnte diesen Unternehmen nicht weiterhin Milliarden von Dollar geben. Es brauchte eine brandneue CPU mit einer brandneuen Architektur.

Betreten Sie die legendäre Core-Architektur von Intel, die 2006 zunächst für Laptops und dann mit der Core-2-Serie für Desktops eingeführt wurde. Core wurde von Grund auf neu entwickelt und stellte eine wesentliche Änderung gegenüber der alten NetBurst-Architektur dar, bei der Anweisungen pro Takt (oder IPC) gegen Taktgeschwindigkeitsgewinne eingetauscht wurden. Das hat bei NetBurst nicht geklappt, da die Taktratenzuwächse Anfang bis Mitte der 2000er Jahre deutlich zurückgingen, sodass Core sich auf IPC-Zuwächse konzentrierte, wie es AMD bei Athlon tat. Intel wollte es natürlich besser machen als AMD, und das tat das Unternehmen auch.

Es gab einige Schwergewichte aus der Core-2-Serie, wie zum Beispiel den Quad-Core Core 2 Extreme X6800, das buchstäblich jeden einzelnen Benchmark gewann In Anandtechund der Core 2 Quad Q6660, ein High-End-Quad-Core, der sich hervorragend für Multithread-Workloads eignet. Aber die mit Abstand beste CPU insgesamt war der Core 2 Duo E6300, ein 180-Dollar-Chip, der in seiner Ausstattung recht ordentlich war 1,86 GHz Frequenz und konnte auf fast 2,6 GHz übertaktet werden, was es mit viel höherwertigen Intel- und höherwertigen Prozessoren gleichsetzt AMD-CPUs.

Core 2 machte Schluss mit Athlon, einer Marke, die Intel seit ihrem Debüt im Jahr 1999 viel Ärger bereitet hatte. Obwohl es schwer zu sagen ist, ob Intel es wirklich verdient hat, alle Marktanteilsgewinne von AMD auf dem gesamten CPU-Markt wieder zunichte zu machen, kann man zumindest sagen, dass Core 2 Athlon in den Benchmarks klar und deutlich geschlagen hat. Intel gab sich jedoch nicht damit zufrieden. Es wollte den totalen Sieg.

4 Intel Core i5-2500K: Die CPU, die AMD fast in den Bankrott getrieben hätte

Quelle: Intel

In den nächsten fünf Jahren übertraf Intel AMD sowohl technologisch als auch finanziell. AMD versuchte mit der Einführung seiner Prozessoren der Phenom-Serie zu konkurrieren, aber die Core-Architektur von Intel war einfach zu gut. Vor allem, weil Intel ständig zwischen Architekturverbesserungen und Verbesserungen des Herstellungsprozesses wechselte Generation. Intel nannte dies „Tick-Tock“, wobei Ticks Prozess-Upgrades und Tocks Architektur-Updates sind. Im Jahr 2011, zwei Ticks und zwei Tacks nach Core 2, war Intel bereit, AMD den Hammer zu hauen.

Intels Sandy-Bridge-Prozessoren der zweiten Generation stellten keine radikale Veränderung gegenüber Core 2 dar. Für den Mainstream bot Intel immer noch nur vier Kerne an (Extreme-Chips mit sechs Kernen waren der Top-End-Plattform LGA 2011 vorbehalten), aber es handelte sich hierbei um sehr raffinierte und leistungsstarke Kerne. Bei der Single-Thread-Leistung war das Flaggschiff Core i7-2600K etwa 25 % schneller als der Core i7-980X Extreme und satte 50 % schneller als AMDs Phenom II X6 1100T BE. Der 2600K verlor gegenüber dem 980X im Multithread-Betrieb zwar an Boden, da er über zwei Kerne mehr verfügte, war aber immer noch schneller als der 1100T, der ebenfalls eine Sechskern-CPU war.

Das berühmteste Mitglied dieser zweiten Generation war jedoch der Core i5-2500K, eine CPU, an die man sich auch ein Jahrzehnt nach seiner Veröffentlichung noch gerne erinnert. Das Einzige, was ihm im Vergleich zum 2600K wirklich fehlte, war Hyperthreading (was 2011 nicht sehr wichtig war) und ein wenig Taktrate. Mit 200 US-Dollar war es ein viel besseres Angebot als das 2600.000-Dollar-Angebot mit 300 US-Dollar, das nur etwa 10–20 % schneller war. Zu Anandtech, der 2500K und die gesamte Sandy Bridge-Familie waren ein Kinderspiel.

Sandy Bridge war auch der Beginn einer neuen Ära bei CPUs. Intel lag mit Core jahrelang an der Spitze, und Sandy Bridge ließ AMD nur noch weiter zurück. Als die FX Bulldozer-CPUs später im Jahr 2011 auf den Markt kamen, wurde die Ehrfurcht vor Intels Leistung durch Besorgnis über AMDs Misserfolge ersetzt. Bulldozer war eine schreckliche CPU, eines der schlechtesten von AMD. In seiner Rezension Anandtech spekuliert dass ohne ein wettbewerbsfähiges AMD, das Intel unter Kontrolle hält, den Verbrauchern gesperrte CPUs mit schlechtem Preis-Leistungs-Verhältnis bleiben würden. Und natürlich ist es genau so gekommen.

5 AMD Ryzen 7 1700: Ein unglaubliches Comeback vom Rande des Ruins

Quelle: AMD

Im Jahr 2011 wurde erwartet, dass AMD seine Bulldozer-CPUs jährlich weiterentwickeln würde, ähnlich wie Intel es getan hat. Allerdings befand sich AMD finanziell in einer so schlechten Verfassung, dass das Unternehmen 2012 nur noch eine zweite Generation von FX-CPUs ausliefern konnte und von da an nur noch neue APUs für das Budget-Segment auf den Markt brachte. AMD zog sich faktisch aus dem Markt zurück und überließ Intel sich selbst. Dies führte dazu, dass Intel die Quad-Core-Modelle Core i5 und Core i7 bei etwa 200 bzw. 300 US-Dollar beließ, während die Margen von Intel größer und die Leistungssteigerungen geringer wurden. Es war völlige Stagnation.

Allerdings hat AMD das CPU-Spiel nicht endgültig aufgegeben. Kurz nachdem Bulldozer einen kritischen Ruf erlangte, begann das Unternehmen mit der Arbeit an einer völlig neuen Architektur. Mit einem angestrebten IPC-Gewinn von 40 % gegenüber Bulldozer (ein wahnsinniges Ziel für eine einzelne Generation) und bis zu acht Kernen, Zen versprach, der Retter für Gamer und Enthusiasten zu sein, die die hohen Preise von Intel und den allgemeinen Mangel an Intel satt hatten Wettbewerb.

Normalerweise begeistern CPUs die Leute nicht besonders, insbesondere diejenigen, die von 2012 bis 2016 auf den Markt kamen, aber Zen war anders. Der Hype-Zug erreichte nie dagewesene Geschwindigkeiten, und AMD spielte wirklich hart mit. Es nannte die Enthüllungspräsentation für Zen „New Horizon“ und brachte sogar Geoff Keighley von den Game Awards auf die Bühne. Denken Sie daran, dass dies für eine CPU und nicht für eine GPU war und von AMD, dem Unternehmen, das jahrelang in der Krise gelandet war und fast bankrott gegangen wäre. Aber die Leute wollten, dass AMD diesen Sieg erringt und den CPU-Markt ankurbelt.

Die Desktop-Version von Zen, die als Ryzen firmiert und Anfang 2017 auf den Markt kommen soll, versprach Großes Multithread-Leistung und angemessene Spieleleistung, und das ohne Absturz Hype-Zug. Der Ryzen 7 1700 war zwar nicht das Flaggschiff, wurde aber von der Kritik hoch gelobt, da er acht Kerne für 330 US-Dollar bot und für etwas mehr Leistung übertaktet werden konnte. Es entsprach in etwa dem 1.100 US-Dollar teuren Core i7-6900K von Intel auch in Multithread-Workloads. Das Spiel war wieder im Gange und es war wieder einmal an Intel, einige entscheidende Fehler zu begehen.

6 AMD Ryzen 9 3950X: Neudefinition dessen, was ein Flaggschiff wirklich ist

Quelle: AMD

Obwohl AMD mit dem Erfolg von Zen ziemlich zufrieden war, stand Intel immer noch vor der Tür. Die 10-nm-CPUs des Unternehmens verzögerten sich aufgrund von Herstellungsproblemen etwas, aber AMD ging kein Risiko ein und konzipierte zukünftige Zen-Generationen so, dass sie mit diesen Chips konkurrieren können. Doch als Intel 2018 seinen ersten 10-nm-Chip auf den Markt brachte, wurde eines ganz klar: 10-nm war kaputt und würde noch lange nicht fertig sein. AMD erwartete einen ausgeglichenen Kampf, aber es sah so aus, als würde er sehr einseitig ausfallen.

Eine der Innovationen, in die AMD investierte, waren Chiplets. Anstatt alles in einem Stück Silizium (auch Chip genannt) unterzubringen, würden die Kerne einen eigenen Chip bekommen und alles andere wäre auf einem anderen. Durch den Bau von CPUs auf diese Weise müsste AMD nur ein paar einzigartige Chips erstellen, und das Hinzufügen weiterer Kerne wäre super einfach. Darüber hinaus wollte AMD für die nächste Zen-Generation (Codename Zen 2) auch den 7-nm-Prozess der nächsten Generation von TSMC verwenden sollte mit Intels 10-nm-Technologie konkurrieren und wäre im weiteren Sinne viel besser als Intels 14-nm-Technologie, die das Unternehmen stattdessen verwenden musste.

Das Endergebnis war Ryzen 3000, der 2019, dem 50. Jahrestag der Gründung von AMD, auf den Markt kam. Ryzen 3000 glich nicht nur die Punktzahl bei Gaming- und Single-Thread-Workloads aus, sondern vernichtete Intel auch bei Multi-Thread-Workloads völlig. Der Achtkern-Core i9-9900K musste gegen den 16-Kern-Ryzen 9 3950X und den 12-Kern-Ryzen 9 3900X antreten, und Sie ließen den 9900K im mittleren Bereich aussehen. Wir dürfen auch die Epyc Rome-CPUs von AMD nicht vergessen, die mit bis zu 64 Kernen ausgestattet waren. Die konkurrierenden Xeons von Intel hatten nur bis zu 28 Kerne, Sie können sich also vorstellen, wie es dort lief.

AMD hatte mit einem harten Kampf mit 10-nm-Chips gerechnet und konnte stattdessen seinen eigenen Sandy-Bridge-Moment dagegen nachstellen bedrängte und alte 14-nm-basierte CPUs. Die harte Arbeit von AMD hatte sich endlich ausgezahlt und die Ryzen 3000-Serie wurde allgemein anerkannt Auszeichnungen. Aber genau wie bei Sandy Bridge war das, was auf den Ryzen 3000 folgte, nicht so toll.

7 Intel Core i9-12900K: Intels lang erwartete Rückkehr zur Konkurrenz

Es sollte nicht überraschen, dass AMD versuchen würde, mehr Geld aus den Leuten herauszuholen, ohne dass Intel gute CPUs auf den Markt bringt. Die Ryzen 5000-Serie kam Ende 2020 auf den Markt und führte auf ganzer Linie zu einer herben Preiserhöhung von 50 US-Dollar. Das bedeutete, dass der Ryzen 5 5600X mit sechs Kernen 20 % schneller als der 3600X war und bestenfalls 20 % mehr Leistung brachte. AMD hat außerdem beschlossen, nur vier Modelle der Ryzen 5000-Serie auf den Markt zu bringen, wobei der 5600X mit 300 US-Dollar der günstigste und der Ryzen 7 5800X mit unglaublichen 450 US-Dollar der zweitgünstigste ist.

Unterdessen machte Intel langsame, aber stetige Fortschritte bei der Reparatur von 10 nm. Im Jahr 2019 brachte das Unternehmen seine mobilen Ice-Lake-Chips auf den Markt, die nur Quad-Cores hatten und kaum besser als 14-nm-Äquivalente waren, aber es war ein Fortschritt. Im Jahr 2020 wurde Tiger Lake eingeführt, eine weitere Verbesserung, aber es gab immer noch nur Quad-Cores. Aber schließlich war Intel Ende 2021 stolz darauf, 10-nm-CPUs auf den Markt zu bringen, die tatsächlich dem Desktop würdig waren.

Alder Lake, bekannt als Chips der 12. Generation, brachte einige neue Dinge auf den Tisch. Es war 10 nm und hatte eine brandneue Architektur, verwendete aber auch zwei verschiedene Arten von Kernen, Performance- und Effizienzkerne. Es ist im Grunde das Gleiche, was Apple und andere ARM-CPU-Designer mit ihren Chips machen, aber auf dem Desktop gab es das noch nie zuvor. Es war nicht klar, wie gut das klappen würde, und ich selbst war ziemlich skeptisch.

Doch am Tag der Markteinführung bewies Intel dankenswerterweise allen das Gegenteil und landete mit seinem Core i9-12900K auf wundersame Weise wieder auf dem ersten Platz. Mit acht P-Kernen und acht E-Kernen, es war viel schneller als AMDs Ryzen 9 5950X sowohl bei Single- als auch bei Multi-Thread-Workloads, und auch beim Spielen war es ein gutes Stück schneller. Es war auch billiger als das 5950X, was von Intel schockierend war.

Die gesamte Produktpalette der 12. Generation war im Allgemeinen großartig. Während AMD sich damit begnügte, im Jahr 2020 nur vier Modelle auf den Markt zu bringen und es dabei beließ, brachte Intel innerhalb weniger Monate Unmengen von CPUs auf den Markt, um den gesamten Markt abzudecken. In seiner Eile, auf den plötzlich wettbewerbsfähigen Intel zu reagieren, senkte AMD die Preise und brachte einige wirklich schreckliche Budget-CPUs auf den Markt, die vom Tag der Markteinführung an Preissenkungen erforderten. AMD hat einen Großteil des im Laufe der Jahre aufgebauten guten Willens aufgebraucht, aber zum ersten Mal seit langer Zeit waren die Dinge endlich ausgeglichen.

Der Wettbewerb bei CPUs bleibt bestehen und das Feld wird immer größer

Heute setzt Intel auf seine Chips der 13. Generation und AMD auf seine Ryzen 7000-Serie. Für beide gibt es Vor- und Nachteile, wobei Intel ein hervorragendes Preis-Leistungs-Verhältnis bietet und AMD eine bessere Effizienz und Aufrüstbarkeit bietet. Es sieht so aus, als ob Intel erneut ins Hintertreffen geraten könnte, da sein 7-nm-/Intel-4-Prozess immer noch nicht bereit ist und weil Kommende Meteor-Lake-Chips könnten nur für Laptops verfügbar sein, aber wir rechnen wahrscheinlich nicht mit einer weiteren Zeit fast ohne Konkurrenz. Die Lage ist gut, und das wird hoffentlich auch in absehbarer Zukunft der Fall sein.

Bei den CPUs stehen jedoch große Veränderungen bevor. ARM, das bisher weitgehend auf Mobiltelefone beschränkt war, gewinnt bei Servern, Laptops und sogar Desktops zunehmend an Bedeutung. Vor allem die M1- und M2-Chips von Apple können sich sehen lassen und verdienen auf jeden Fall eine lobende Erwähnung. Auch RISC-V ist ein aufstrebender Stern auf dem CPU-Markt, und obwohl es keinen großen Einfluss hatte, ist es ein großes Zeichen. Ich denke, wir sind noch weit davon entfernt, dass ARM- und RISC-V-CPUs mit x86 gleichberechtigt auf PCs und Servern mithalten können, aber ich bezweifle nicht, dass es irgendwann passieren wird.