Hvis du kigger igennem Intels historie, vil du finde tonsvis af forfærdelige CPU'er, hvoraf mange ville have forårsaget økonomisk ruin for enhver anden virksomhed.
hurtige links
- Pentium 4: Intels første store katastrofe
- Itanium: Intels drømme om 64-bit fordamper
- Atom: Så hurtigt som et atom er stort
- Core i7-7700K: Intel holder op med at prøve
- Core i3-8121U: Vi taler ikke om 10nm
- Core i9-11900K: Kunne ikke opnå liftoff
- Et comeback, men til hvilken pris?
Intel er for nylig blevet løftet af sin succes med sine 13. generations chips for mainstream og fjerde generation af Xeon-processorer til servere og arbejdsstationer, med Core i9-13900K selv hævder præstationskronen med blot et hår. Dette har været noget af et comeback, da Intel har kæmpet teknologisk i årevis og i 2022, mærkede endelig de ødelæggende økonomiske virkninger af at miste kanten i dette rum over dets konkurrenter. Hvis du ser tilbage på Intels historie, vil du finde tonsvis af forfærdelige CPU'er, og nogle af disse vil få dig til at undre dig over, hvordan Intel først begyndte at løbe ind i økonomiske problemer for nylig.
Pentium 4: Intels første store katastrofe
Tilbage i begyndelsen af 2000'erne var CPU'er langt enklere, end de er i dag, og de fleste generation-til-generation forbedringer fokuserede på clockhastigheder. Faktisk blev CPU'er ofte opkaldt efter deres clockhastigheder og intet andet. Da Intel udviklede sin næste generation af Net Burst-arkitektur, virkede det oplagt at forsøge at jagte frekvens, og virksomheden havde store planer, planer, der gik af sporet på lige så stor måde.
AMD var det første firma, der lancerede en 1GHz CPU med Athlon 1000, som blev lanceret i marts 2000, men Intel havde allerede øjne på 2GHz barrieren. Ved udgangen af året havde den lanceret sine første Pentium 4 CPU'er, hvoraf den hurtigste nåede 1,5 GHz. I 2001 Intel var de første til 2GHz med sin 2GHz Pentium 4-chip og en 3GHz model fulgte snart i 2002.
Disse frekvenser kom dog til en høj pris. Intel blev tvunget til at gøre Net Bursts pipeline ekstraordinært lang, hvilket betød, at Pentium 4's instruktioner per ur (IPC) var et godt stykke under endnu ældre Intel CPU'er, og hvad AMD havde.
I starten fungerede Intels plan godt, og Pentium 4-chips slog normalt AMD's Athlons. Intel fordoblede sin strategi ved at gøre Net Bursts pipeline endnu længere for at nå højere clockhastigheder. En 4GHz Pentium 4 skulle lanceres i 2005, efterfulgt af en 10GHz CPU i den nærmeste fremtid. Intels strategi var imidlertid baseret på Dennard Scaling, som observerede, at frekvensen steg hver generation uden at have brug for mere strøm. I 2005 havde Intel opdaget, at Dennard Scaling ikke længere anvendes, og at selv 4GHz var svært at ramme, hvilket førte til annullering af 4GHz Pentium.
Intels beslutning om at reducere IPC for at ramme højere frekvenser havde katastrofale konsekvenser, da disse frekvensgevinster tørrede ud, og AMD tog føringen i 2004. Intel endte med at skrotte Net Burst og designede en helt ny arkitektur, der prioriterede IPC frem for frekvensforstærkninger som de fleste moderne CPU'er.
Itanium: Intels drømme om 64-bit fordamper
Samtidig med at Intel sendte Net Burst til desktops, forberedte Intel en ekstremt ambitiøs plan for server-CPU'er. x86-arkitekturen, som blev brugt til Intels og AMDs CPU'er var begrænset til 32-bit beregninger, og for det nye servermarked ønskede Intel at udvikle 64-bit processorer med aldrig før set hastigheder. Intel afviste ideen om at lave en 64-bit version af x86 og gik sammen med HP om at skabe splinterny IA-64-arkitektur, som drev Itanium CPU'er. De første Itanium-chips var planlagt til en 1999 lancering.
Itanium-udviklingen var besværligdog. Det blev forsinket til 2001, og budgettet begyndte at stige. Da den endelig blev lanceret i 2001, var dens ydeevne ikke ligefrem konkurrencedygtig med andre x86-CPU'er, og kun Itaniums evne til at beregne i 64-bit var et stort salgsargument. Men Itanium havde en grundlæggende fejl: Den kunne ikke køre x86-software. Al eksisterende software skulle omskrives til IA-64-arkitekturen, hvilket ikke var en lille opgave.
Hvis Itanium var imponerende, var det simpelthen fordi det nægtede at dø.
I 2003 var AMD færdig med sin egen 64-bit arkitektur kaldet AMD64, som var en version af x86 med 64-bit understøttelse. Intel havde tidligere afvist denne strategi af forskellige årsager, men set i bakspejlet var det klart, at Itanium var en fejl, da AMDs Opteron-chips begyndte at snuppe markedsandele. AMD64 havde også støtte fra store softwarevirksomheder som Microsoft, som valgte AMD64 som sin foretrukne 64-bit arkitektur. I sidste ende blev AMD64 så populær, at Intel var nødt til at lave sine egne AMD64-serverchips kaldet Xeon, og AMD64 blev til x86-64.
Men her er sagen: Xeon erstattede ikke Itanium. Intel og HP havde i årevis håb om, at denne strategi med dobbelt arkitektur ville fungere, selv da virksomheder som Dell og IBM holdt op med at sælge Itanium-servere. Itanium holdt op med at modtage årlige opdateringer i midten af 2000'erne, med dens sidste chip lancering i 2017. Det blev endeligt afbrudt i 2020, men ikke før udløste en massiv retssag mellem Oracle og HP over støtte. Hvis Itanium var imponerende, var det simpelthen fordi det nægtede at dø.
Atom: Så hurtigt som et atom er stort
Til sidst ryddede Intel op i kølvandet på Pentium 4- og Itanium-fiaskoerne og vendte tilbage til sin traditionelle lederposition. I slutningen af 2000'erne så Intel muligheder ud over desktops, bærbare computere og servere, da enheder som iPod blev ekstremt populære. Men Intel havde større ambitioner end at drive enheder, der kunne passe i din lomme; den ønskede Intel CPU'er i alt, der kunne tænkes at have en processor. Intel havde brug for en chip, der var lille, effektiv og lige hurtig nok til at klare sig, så i 2008 lancerede virksomheden Atom.
Efter at have taget et par år på at udjævne knæk i de første Atom-chips, var Intel klar til at lancere Atom Z600, som skulle fange smartphone-markedet fra Arm. Den kunne prale af ydeevne, der var langt overlegen i forhold til alt, hvad Arm kunne tilbyde, og havde det samme strømforbrug. Anandtech var overbevist om, at Z600 ville ændre alt, og sagde: "Smartphonemarkedet om 5 år vil ikke ligne en forlængelse af det, vi ser i dag."
Så hvorfor har din telefon eller brødrister ikke en Atom CPU? Den måske vigtigste årsag er, at x86 aldrig var blevet brugt til smartphones eller andre enheder, så softwaren skulle omskrives. Dette var dybest set den samme fejl, som Intel lavede med Itanium, og det slog sine smartphone-planer ihjel efter seks år. Det hjalp nok heller ikke, at Atoms eneste krav på berømmelse var netbooken og "tingenes internet"-enheder,
Men for nylig fandt Intel endelig et hjem til Atom i netværksenheder og dets nye hybrid-CPU'er som 13900K, som har 16 E-kerner stammer fra Atom CPU'er. Det ændrer ikke på det faktum, at Atom var en katastrofe i over et årti, men det er i det mindste nyttigt til noget nu.
Core i7-7700K: Intel holder op med at prøve
Intel erstattede Net Burst med Core, en arkitektur, der fandt en balance mellem IPC og frekvens, og det var straks et hit. CPU'er som Core 2 Duo E6300 og Core 2 Quad Q6600 var meget hurtigere end AMD's skuffende efterfølger til Athlon, Phenom. Intels fornyede angreb på pc'er kulminerede med opgøret mellem sin anden generation af Sandy Bridge og AMD's FX Bulldozer CPU'er i 2011, og Intel vandt let. Intel var på vej frem igen.
Så hvordan fortsatte Intel dette momentum? Ved i det væsentlige at starte den samme CPU igen og igen. Det betyder ikke, at Intel ikke gjorde nogen fremskridt overhovedet; virksomheden fulgte "tick-tock"-modellen, hvor Intel frigav en CPU hver generation med en ny produktionsknude (tick) og derefter en CPU med en ny arkitektur (tock), som gentog sig og igen. Men disse teknologiske gevinster holdt op med at omsætte sig til væsentlige præstations- og værdiforbedringer, som de havde tidligere, og det var fordi Intel ikke behøvede at konkurrere længere.
Core i7-7700K var måske den mest berygtede af disse chips, da det bogstaveligt talt var en Core i7-6700K med et par ekstra MHz.
Slutresultatet var den syvende generation af Kaby Lake, som blev lanceret i 2017 og hverken var et kryds eller en tock, men i stedet en "optimering", hvilket vil sige, at det kun var sidste generations CPU'er med højere clock hastigheder. Core i7-7700K var måske den mest berygtede af disse chips, da det bogstaveligt talt var en Core i7-6700K med et par ekstra MHz. PCGamesN var særligt skarp i sin anmeldelse, og sagde, at det var "en deprimerende skive silicium."
Denne historie har en lykkelig slutning, fordi AMD endelig gjorde sit comeback to måneder senere ved at lancere sin Ryzen 1000 CPU'er. Disse førstegenerationschips var ikke vindere i spil, men de havde fantastiske multi-core ydeevne. Ryzen 7 1700 tæskede 7700K i stort set enhver multi-core arbejdsbyrde, mens den kostede omtrent det samme. Kirsebæret på toppen var Intels hastværk med at få sine ottende generations CPU'er ud af døren samme år, hvilket betød, at Kaby Lake ikke engang nåede det et helt år, før det blev gjort forældet.
Core i3-8121U: Vi taler ikke om 10nm
Selvom Intel var komfortabel med at lancere den samme CPU to gange i træk, skulle Kaby Lake aldrig eksistere. Intel havde altid tænkt sig at holde sig til tick-tock-modellen og lancere en 10nm CPU efter sjette generation, men udviklingen gik dårligt for virksomhedens 10nm node. Planen for 10nm var ekstremt ambitiøs. Den skulle have næsten tredoblet tætheden på 14nm, foruden dens højere effektivitet. Intel burde have vidst ikke at gøre dette efter det kæmpede for at få sine 14nm CPU'er ud til tiden, men det ville have teknologisk overlegenhed, så det gik videre.
Det oprindelige mål for 10nm var 2015, men da 14nm blev forsinket, gjorde 10nm det også. 2017 var den nye lanceringsdato, men i stedet for 10nm CPU'er lancerede Intel sin tredje og fjerde 14nm CPU'er. Endelig lancerede Intel en 10nm CPU baseret på Cannon Lake-arkitekturen, Core i3-8121U, i 2018. Desværre signalerede det ikke starten på en helt ny generation af CPU'er, der bruger banebrydende teknologi, men afslutningen på Intels lederskab.
Core i3-8121U i 2018 signalerede afslutningen på Intels lederskab.
8121U var en frygtelig demonstration af 10nm og et forfærdeligt produkt i sig selv. 10nm-knuden var så ødelagt, at Intel kun kunne fremstille en lillebitte dual-core CPU med dens integrerede grafik bevidst deaktiveret, formentlig fordi de ikke fungerede korrekt. Intel havde bidt mere fra sig, end det kunne tygge med 10nm, og konsekvenserne af virksomhedens hybris ville ændre dens bane for altid. Med 10nm fast i udviklingshelvede, kunne Intel kun stole på 14nm for alt, der krævede en betydelig mængde ydeevne.
Som en sidebemærkning oplister Intel alle de CPU'er, den har lanceret i de sidste to årtier på sin hjemmeside, og mens siden for 8121U eksisterer stadig, siden for alle 10nm Cannon Lake CPU'er er blevet slettet, næsten som om Intel er flov.
Core i9-11900K: Kunne ikke opnå liftoff
Intel fortsatte med 14nm i årevis, og selvom hver generation bragte flere kerner end den sidste, var frekvensen gevinster fra hver forfining af 14nm blev mindre, og tilføjelse af flere kerner øgede dramatisk kraften forbrug. Da Intel lancerede sin 10. generations CPU'er (den sjette i rækken, der bruger 14nm), brugte AMD allerede TSMC's 7nm til sine Ryzen 3000 CPU'er. Intels top-end Core i9-10900K kunne ikke slå AMD's Ryzen 9 3900X, som ikke engang var flagskibet og ikke havde PCIe 4.0-understøttelse, i modsætning til AMD-CPU'er.
Hvis 10nm ikke var en mulighed, så var den eneste ting at gøre at introducere en ny arkitektur. Intel besluttede at backportere sine mobilorienterede Ice Lake-chips til 14nm, hvilket medførte en tiltrængt IPC-stigning på 19 %. Måske skulle Intel have gjort dette før i stedet for at vente på den syvende generation af 14nm CPU'er, men bedre sent end aldrig, ikke?
Så 11. generations Rocket Lake CPU'er kom med en helt ny arkitektur, men dette kom til en pris. For det første betød backportering af en CPU designet til en meget tættere node, at kernerne var massive på 14nm. For det andet stiger strømforbruget også på ældre processer, hvilket gør det mere udfordrende at tilføje flere kerner og øge clockhastigheden. Slutresultatet var "flagskibet" Core i9-11900K, som havde sølle otte kerner og en matricestørrelse på 276 mm2 - det er færre kerner end 10900K, mens den var større.
11900K var dødsdømt; det var teknologisk baglæns og alt for dyrt til $539. Det kunne næsten ikke matche $450 Ryzen 7 5800X (endsige Ryzen 9 5900X og 5950X) og tabte endda til 10900K i alt, der ikke var ekstremt enkelttrådet. Det er chokerende, at Intel brugte forskning og udvikling på en helt ny CPU, der ikke engang kunne slå sin forgænger på overbevisende måde. Det er muligt, at Rocket Lake blev lavet med det ene formål at få PCIe 4.0 på en Intel desktop CPU. I det mindste var resten af Rocket Lake-serien anstændig, da AMD stoppede med at konkurrere i low-end og mellemklassen.
Et comeback, men til hvilken pris?
Med sine 12. og 13. generations CPU'er er Intel endelig vendt tilbage til ydeevne førende inden for pc, men skaden er allerede sket. 10nm skulle lanceres i 2015, men det blev først lanceret med succes i 2021 med Alder Lake og Ice Lake til servere. Syv hele år med 14nm CPU'er har reduceret Intel til en ren skygge af sit tidligere jeg, noget der ikke var sket, da Intel skruede op med Pentium 4, Itanium eller Atom.
En rød tråd mellem alle disse fejl er Intels hensynsløshed og mangel på forsigtighed. Intel antog, at Pentium 4 ville være fantastisk og ramme 10GHz, endda 30GHz, uden problemer. Intel antog, at Itanium ville styre datacentret og overvejede aldrig for alvor muligheden for, at ingen ønskede at omskrive hvert enkelt stykke x86-software. Intel antog, at Atom ville lykkes, simpelthen fordi det var et fantastisk stykke hardware. Intel antog, at deres ingeniører kunne gøre alt og sigtede efter en latterlig generationsgevinst på 10nm.
På den anden side er det også ret ironisk, at to af Intels mest profilerede fiaskoer har givet virksomheden mulighed for at komme tilbage. Hybrid arkitektur CPU'er som 13900K er kun mulige på grund af Atom, og uden E-kerner ville disse CPU'er bare være for store og strømkrævende. 10nm spiller også en stor rolle i Intels comeback, da det sætter virksomhedens chips på nogenlunde paritet med dem, der er kendt hos TSMC. Forhåbentlig har denne katastrofe med 10nm givet Intel en nyfundet forståelse for, hvordan planer kan gå galt.