Hvis du ser gjennom Intels historie, vil du finne tonnevis av forferdelige CPUer, hvorav mange ville ha forårsaket økonomisk ruin for et hvilket som helst annet selskap.
Hurtigkoblinger
- Pentium 4: Intels første store katastrofe
- Itanium: Intels drømmer om 64-bits fordamper
- Atom: Like raskt som et atom er stort
- Core i7-7700K: Intel slutter å prøve
- Core i3-8121U: Vi snakker ikke om 10nm
- Core i9-11900K: Klarer ikke å oppnå løftet
- Et comeback, men til hvilken pris?
Intel har nylig blitt oppmuntret av suksessen med sine 13. generasjons sjetonger for mainstream og fjerde generasjons Xeon-prosessorer for servere og arbeidsstasjoner, med Core i9-13900K til og med kreve prestasjonskronen med bare et hår. Dette har vært noe av et comeback, ettersom Intel har slitt teknologisk i årevis og i 2022, endelig kjente de ødeleggende økonomiske effektene av å miste kanten i denne plassen over sin konkurrenter. Hvis du ser tilbake på Intels historie, vil du finne tonnevis av forferdelige CPUer, og noen av disse vil få deg til å lure på hvordan Intel først begynte å få økonomiske problemer nylig.
Pentium 4: Intels første store katastrofe
Tilbake på begynnelsen av 2000-tallet var CPUer langt enklere enn de er i dag, og de fleste forbedringer fra generasjon til generasjon fokuserte på klokkehastigheter. Faktisk ble CPUer ofte oppkalt etter deres klokkehastigheter og ingenting annet. Da Intel utviklet sin neste generasjons Net Burst-arkitektur, virket det nærliggende å prøve å jage etter frekvens, og selskapet hadde store planer, planer som gikk av stabelen på en like stor måte.
AMD var det første selskapet som lanserte en 1GHz CPU med Athlon 1000, som ble lansert i mars 2000, men Intel hadde allerede øynene på 2GHz-barrieren. Ved slutten av året hadde den lansert sine første Pentium 4 CPUer, den raskeste kom til 1,5 GHz. I 2001, Intel var først ute med 2GHz med sin 2GHz Pentium 4-brikke, og en 3GHz modell fulgte snart i 2002.
Disse frekvensene kom imidlertid til en høy pris. Intel ble tvunget til å gjøre Net Bursts pipeline ekstraordinært lang, noe som betydde at Pentium 4s instruksjoner per klokke (IPC) var godt under enda eldre Intel CPUer og hva AMD hadde.
Til å begynne med fungerte Intels plan bra, og Pentium 4-brikker slo vanligvis AMDs Athlons. Intel doblet strategien sin ved å gjøre Net Bursts pipeline enda lengre for å nå høyere klokkehastigheter. En 4GHz Pentium 4 skulle lanseres i 2005, etterfulgt av en 10GHz CPU i nær fremtid. Imidlertid var Intels strategi basert på Dennard Scaling, som observerte at frekvensen steg hver generasjon uten å trenge mer kraft. I 2005 hadde Intel oppdaget att Dennard Scaling ikke lenger ble brukt, og at selv 4GHz var vanskelig å treffe, noe som førte til kansellering av 4GHz Pentium.
Intels beslutning om å redusere IPC for å treffe høyere frekvenser fikk katastrofale konsekvenser da disse frekvensgevinstene tørket ut, og AMD tok ledelsen i 2004. Intel endte opp med å skrote Net Burst og designet en helt ny arkitektur som prioriterte IPC fremfor frekvensgevinster som de fleste moderne CPUer.
Itanium: Intels drømmer om 64-bits fordamper
Samtidig som Intel leverte Net Burst for stasjonære datamaskiner, forberedte Intel en ekstremt ambisiøs plan for server-CPUer. x86-arkitekturen, som ble brukt til Intels og AMDs CPUer, var begrenset til 32-biters beregning, og for det fremvoksende servermarkedet ønsket Intel å utvikle 64-bits prosessorer med aldri før-sett hastigheter. Intel avviste ideen om å lage en 64-biters versjon av x86 og samarbeidet med HP for å lage splitter ny IA-64-arkitektur, som drev Itanium-prosessorer. De første Itanium-brikkene var planlagt til en 1999 lansering.
Itanium-utviklingen var urolig, derimot. Det ble forsinket til 2001 og budsjettet begynte å skyte i været. Da den endelig ble lansert i 2001, var ytelsen ikke akkurat konkurransedyktig med andre x86-CPU-er, og bare Itaniums evne til å beregne i 64-bit var et stort salgsargument. Men Itanium hadde en grunnleggende feil: Den kunne ikke kjøre x86-programvare. All eksisterende programvare måtte skrives om for IA-64-arkitekturen, noe som ikke var en liten oppgave.
Hvis Itanium var imponerende, var det ganske enkelt fordi det nektet å dø.
I 2003 var AMD ferdig med sin egen 64-bits arkitektur kalt AMD64, som var en versjon av x86 med 64-bits støtte. Intel hadde tidligere bestemt seg for denne strategien av ulike grunner, men i ettertid var det klart at Itanium var en feil siden AMDs Opteron-brikker begynte å ta markedsandeler. AMD64 hadde også støtte fra store programvareselskaper som Microsoft, som valgte AMD64 som sin foretrukne 64-bits arkitektur. Til slutt ble AMD64 så populær at Intel måtte lage sine egne AMD64-serverbrikker kalt Xeon, og AMD64 ble x86-64.
Men her er tingen: Xeon erstattet ikke Itanium. Intel og HP hadde i årevis et håp om at denne strategien med dobbel arkitektur ville fungere, selv da selskaper som Dell og IBM sluttet å selge Itanium-servere. Itanium sluttet å motta årlige oppdateringer på midten av 2000-tallet, med sin siste brikke som ble lansert i 2017. Den ble endelig avviklet i 2020, men ikke før utløste en massiv rettssak mellom Oracle og HP over støtte. Hvis Itanium var imponerende, var det ganske enkelt fordi det nektet å dø.
Atom: Like raskt som et atom er stort
Etter hvert ryddet Intel opp i kjølvannet av Pentium 4- og Itanium-fiaskoene og returnerte til sin tradisjonelle lederposisjon. På slutten av 2000-tallet så Intel muligheter utover stasjonære, bærbare datamaskiner og servere ettersom enheter som iPod ble ekstremt populære. Men Intel hadde større ambisjoner enn å drive enheter som kunne passe i lommen; den ville ha Intel CPUer i alt som kunne tenkes å ha en prosessor. Intel trengte en brikke som var liten, effektiv og akkurat rask nok til å klare seg, så i 2008 lanserte selskapet Atom.
Etter å ha brukt et par år på å stryke ut knekkene i de første Atom-brikkene, var Intel klar til å lansere Atom Z600, som skulle fange smarttelefonmarkedet fra Arm. Den skrøt av ytelse som var langt overlegen alt Arm kunne tilby og hadde samme strømforbruk. Anandtech var trygg på at Z600 ville forandre alt, og sa: "Smarttelefonmarkedet om 5 år vil ikke se ut som en utvidelse av det vi ser i dag."
Så hvorfor har ikke telefonen eller brødristeren en Atom CPU? Den kanskje viktigste grunnen er at x86 aldri hadde blitt brukt til smarttelefoner eller andre enheter, så programvaren måtte skrives om. Dette var i utgangspunktet den samme feilen Intel gjorde med Itanium, og det drepte smarttelefonplanene sine etter seks år. Det hjalp nok heller ikke at Atoms eneste krav til berømmelse var netbooken og "tingenes internett"-enheter,
Men nylig fant Intel endelig et hjem for Atom i nettverksenheter og de nye hybrid-CPU-ene som 13900K, som har 16 E-kjerner stammet fra Atom CPUer. Det endrer ikke det faktum at Atom var en katastrofe i over et tiår, men det er i det minste nyttig for noe nå.
Core i7-7700K: Intel slutter å prøve
Intel erstattet Net Burst med Core, en arkitektur som fant en balanse mellom IPC og frekvens, og den ble umiddelbart en hit. CPUer som Core 2 Duo E6300 og Core 2 Quad Q6600 var mye raskere enn AMDs skuffende etterfølger til Athlon, Phenom. Intels fornyede angrep på PC kulminerte med oppgjøret mellom andregenerasjons Sandy Bridge og AMDs FX Bulldozer CPUer i 2011, og Intel vant enkelt. Intel var på vei oppover igjen.
Så hvordan fortsatte Intel dette momentumet? Ved å starte den samme CPU om og om igjen. Det betyr ikke at Intel ikke gjorde noen fremgang i det hele tatt; selskapet fulgte "tick-tock"-modellen, der Intel ga ut en CPU hver generasjon med en ny produksjonsnode (tick) og deretter en CPU med en ny arkitektur (tock), som gjentas videre og videre. Men disse teknologiske gevinstene sluttet å oversettes til betydelige ytelses- og verdiforbedringer som de hadde tidligere, og det var fordi Intel ikke trengte å konkurrere lenger.
Core i7-7700K var kanskje den mest beryktede av disse brikkene siden det bokstavelig talt var en Core i7-6700K med noen få ekstra MHz.
Sluttresultatet var sjuende generasjons Kaby Lake, som ble lansert i 2017 og var verken en hak eller en tock, men i stedet en "optimalisering", som vil si at det bare var siste generasjons CPUer med høyere klokke hastigheter. Core i7-7700K var kanskje den mest beryktede av disse brikkene siden det bokstavelig talt var en Core i7-6700K med noen få ekstra MHz. PCGamesN var spesielt skarp i sin anmeldelse, og sa at det var "en deprimerende skive silisium."
Denne historien har en lykkelig slutt fordi AMD endelig kom tilbake to måneder senere ved å lansere Ryzen 1000 CPUer. Disse førstegenerasjonssjetongene var ikke vinnere i spill, men de hadde fantastiske multi-core opptreden. Ryzen 7 1700 slo 7700K i praktisk talt hvilken som helst flerkjerners arbeidsbelastning mens den kostet omtrent det samme. Kirsebæret på toppen var Intels hastverk med å få sin åttende generasjons CPU-er ut av døren samme år, noe som betydde at Kaby Lake ikke en gang klarte det et helt år før den ble foreldet.
Core i3-8121U: Vi snakker ikke om 10nm
Selv om Intel var komfortabel med å lansere samme CPU to ganger på rad, skulle Kaby Lake aldri eksistere. Intel hadde alltid tenkt å holde seg til tick-tock-modellen og lansere en 10nm CPU etter sjette generasjon, men utviklingen gikk dårlig for selskapets 10nm node. Planen for 10nm var ekstremt ambisiøs. Den skulle ha nesten tredoblet tetthet på 14nm, i tillegg til høyere effektivitet. Intel burde ha visst å ikke gjøre dette etter det slet med å få ut 14nm CPU-ene i tide, men den ønsket teknologisk overlegenhet, så den gikk videre.
Det opprinnelige målet for 10nm var 2015, men siden 14nm ble forsinket, gjorde 10nm det også. 2017 var den nye lanseringsdatoen, men i stedet for 10nm CPUer, lanserte Intel sin tredje og fjerde 14nm CPUer. Til slutt lanserte Intel en 10nm CPU basert på Cannon Lake-arkitekturen, Core i3-8121U, i 2018. Dessverre signaliserte det ikke starten på en helt ny generasjon CPUer som bruker banebrytende teknologi, men slutten på Intels lederskap.
Core i3-8121U i 2018 signaliserte slutten på Intels lederskap.
8121U var en forferdelig demonstrasjon av 10nm og et forferdelig produkt i seg selv. 10nm-noden var så ødelagt at Intel bare kunne produsere en liten dual-core CPU med integrert grafikk med hensikt deaktivert, antagelig fordi de ikke fungerte ordentlig. Intel hadde bitt av mer enn det kunne tygge med 10nm, og konsekvensene av selskapets hybris ville endre banen for alltid. Med 10nm fast i utviklingshelvete, kunne Intel bare stole på 14nm for alt som krevde en betydelig mengde ytelse.
Som en sidenotat, lister Intel opp alle CPU-ene den har lansert de siste to tiårene på nettstedet sitt, og mens siden for 8121U eksisterer fortsatt, siden for alle 10nm Cannon Lake CPUer har blitt slettet, nesten som om Intel er flau.
Core i9-11900K: Klarer ikke å oppnå løftet
Intel fortsatte med 14nm i årevis, og selv om hver generasjon brakte flere kjerner enn den forrige, var frekvensen gevinstene fra hver raffinering på 14nm ble mindre, og å legge til flere kjerner økte kraften dramatisk forbruk. Da Intel lanserte sin 10. generasjons CPUer (den sjette i rekken som brukte 14nm), brukte AMD allerede TSMCs 7nm for sine Ryzen 3000 CPUer. Intels toppmodell Core i9-10900K kunne ikke slå AMDs Ryzen 9 3900X, som ikke engang var flaggskipet, og ikke hadde PCIe 4.0-støtte, i motsetning til AMD-prosessorer.
Hvis 10nm ikke var et alternativ, så var det eneste å gjøre å introdusere en ny arkitektur. Intel bestemte seg for å backportere sine mobilorienterte Ice Lake-brikker til 14nm, noe som ga en sårt tiltrengt IPC-økning på 19 %. Kanskje Intel burde ha gjort dette tidligere i stedet for å vente på den syvende generasjonen av 14nm CPUer, men bedre sent enn aldri, ikke sant?
Så 11. generasjons Rocket Lake CPUer kom med en helt ny arkitektur, men dette kom til en pris. For det første betydde backporting av en CPU designet for en mye tettere node at kjernene var massive på 14nm. For det andre øker strømforbruket også på eldre prosesser, noe som gjør det mer utfordrende å legge til flere kjerner og øke klokkehastigheten. Sluttresultatet var "flaggskipet" Core i9-11900K, som hadde søte åtte kjerner og en dysestørrelse på 276 mm2 - det er færre kjerner enn 10900K, samtidig som den var større.
11900K var dødsdømt; det var teknologisk bakvendt og altfor dyrt til $539. Det kunne knapt matche $450 Ryzen 7 5800X (for ikke å snakke om Ryzen 9 5900X og 5950X) og tapte til og med for 10900K i alt som ikke var ekstremt enkeltrådet. Det er sjokkerende at Intel brukte forskning og utvikling på en helt ny CPU som ikke en gang kunne slå forgjengeren på en overbevisende måte. Det er mulig Rocket Lake ble laget for det eneste formålet å få PCIe 4.0 på en Intel stasjonær CPU. I det minste var resten av Rocket Lake-serien anstendig siden AMD sluttet å konkurrere i low-end og mellomtone.
Et comeback, men til hvilken pris?
Med sin 12. og 13. generasjons CPU-er har Intel endelig kommet tilbake til ytelseslederskap innen PC, men skaden er allerede gjort. 10nm skulle lanseres i 2015, men den ble først lansert vellykket i 2021 med Alder Lake og Ice Lake for servere. Syv hele år med 14nm CPUer har redusert Intel til bare en skygge av sitt tidligere jeg, noe som ikke hadde skjedd da Intel skrudde opp med Pentium 4, Itanium eller Atom.
En rød tråd mellom alle disse feilene er Intels hensynsløshet og mangel på forsiktighet. Intel antok Pentium 4 ville være flott og treffe 10GHz, til og med 30GHz, uten problemer. Intel antok at Itanium ville styre datasenteret og vurderte aldri muligheten for at ingen ønsket å omskrive hvert eneste stykke x86-programvare. Intel antok at Atom ville lykkes rett og slett fordi det var en flott maskinvare. Intel antok at ingeniørene deres kunne gjøre hva som helst og siktet mot en latterlig generasjonsgevinst på 10nm.
På den annen side er det også ganske ironisk at to av Intels mest profilerte fiaskoer har tillatt selskapet å gjøre comeback. Hybridarkitektur-CPU-er som 13900K er bare mulig på grunn av Atom, og uten E-kjerner ville disse CPU-ene bare vært for store og strømkrevende. 10nm spiller også en enorm rolle i Intels comeback, ettersom det setter selskapets brikker på grov paritet med de som er kjent fra TSMC. Forhåpentligvis har denne katastrofen med 10nm gitt Intel en ny forståelse for hvordan planene kan gå galt.