Om du tittar igenom Intels historia, kommer du att hitta massor av hemska processorer, av vilka många skulle ha orsakat ekonomisk ruin för vilket annat företag som helst.
snabblänkar
- Pentium 4: Intels första stora katastrof
- Itanium: Intels drömmar om 64-bitars förångas
- Atom: Lika snabb som en atom är stor
- Core i7-7700K: Intel slutar försöka
- Core i3-8121U: Vi pratar inte om 10nm
- Core i9-11900K: Misslyckas med att uppnå lyft
- En comeback, men till vilken kostnad?
Intel har på senare tid stärkts av sina framgångar med sina 13:e generationens chips för mainstream och fjärde generationens Xeon-processorer för servrar och arbetsstationer, med Core i9-13900K till och med hävdar prestandakronan med bara ett hårstrå. Detta har varit något av en comeback, eftersom Intel har kämpat tekniskt i åratal och in 2022, äntligen kände de förödande ekonomiska effekterna av att tappa försprånget i detta utrymme över dess konkurrenter. Om du tittar tillbaka på Intels historia kommer du att hitta massor av hemska processorer, och några av dessa kommer att få dig att undra hur Intel först började stöta på ekonomiska problem nyligen.
Pentium 4: Intels första stora katastrof
Tillbaka i början av 2000-talet var CPU: erna mycket enklare än de är idag, och de flesta förbättringar från generation till generation fokuserade på klockhastigheter. Faktum är att processorer ofta döptes efter deras klockhastigheter och inget annat. När Intel utvecklade sin nästa generations Net Burst-arkitektur verkade det självklart att försöka jaga frekvens, och företaget hade stora planer, planer som gick av stapeln på ett lika stort sätt.
AMD var det första företaget som lanserade en 1GHz CPU med Athlon 1000, som lanserades i mars 2000, men Intel hade redan ögonen på 2GHz-barriären. I slutet av året hade den lanserat sina första Pentium 4-processorer, den snabbaste av dem kom till 1,5 GHz. År 2001, Intel var först med 2GHz med dess 2GHz Pentium 4-chip, och en 3GHz modell följde snart 2002.
Dessa frekvenser kom dock till ett högt pris. Intel tvingades göra Net Bursts pipeline extraordinärt lång, vilket innebar att Pentium 4:s instruktioner per klocka (IPC) låg långt under ännu äldre Intel-processorer och vad AMD hade.
Till en början fungerade Intels plan bra och Pentium 4-chips slog vanligtvis AMD: s Athlons. Intel fördubblade sin strategi genom att göra Net Bursts pipeline ännu längre för att nå högre klockhastigheter. En 4GHz Pentium 4 skulle lanseras 2005, följt av en 10GHz CPU inom en snar framtid. Intels strategi var dock baserad på Dennard Scaling, som observerade att frekvensen steg varje generation utan att behöva mer kraft. År 2005 hade Intel upptäckt att Dennard Scaling inte längre tillämpades och att till och med 4GHz var svårt att slå, vilket ledde till annullering av 4GHz Pentium.
Intels beslut att minska IPC för att nå högre frekvenser fick katastrofala konsekvenser när dessa frekvensvinster försvann och AMD tog ledningen 2004. Det slutade med att Intel skrotade Net Burst och designade en helt ny arkitektur som prioriterade IPC framför frekvensvinster som de flesta moderna processorer.
Itanium: Intels drömmar om 64-bitars förångas
Samtidigt som Intel levererade Net Burst för stationära datorer, förberedde Intel en extremt ambitiös plan för server-CPU: er. x86-arkitekturen, som användes för Intels och AMD: s processorer var begränsade till 32-bitars beräkningar, och för den framväxande servermarknaden ville Intel utveckla 64-bitars processorer med aldrig tidigare skådade hastigheter. Intel avvisade idén om att göra en 64-bitarsversion av x86 och samarbetade med HP för att skapa helt ny IA-64-arkitektur, som drev Itanium-processorer. De första Itanium-chipsen var planerade till en 1999 lansera.
Itanium-utvecklingen var orolig, dock. Det försenades till 2001 och budgeten började skjuta i höjden. När den äntligen lanserades 2001 var dess prestanda inte direkt konkurrenskraftig med andra x86-processorer, och bara Itaniums förmåga att beräkna i 64-bitars var ett stort försäljningsargument. Men Itanium hade ett grundläggande fel: det kunde inte köra x86-programvara. All befintlig programvara behövde skrivas om för IA-64-arkitekturen, vilket inte var någon liten uppgift.
Om Itanium var imponerande var det helt enkelt för att den vägrade dö.
År 2003 hade AMD avslutat sin egen 64-bitarsarkitektur kallad AMD64, som var en version av x86 med 64-bitarsstöd. Intel hade tidigare beslutat sig för denna strategi av olika anledningar, men i efterhand stod det klart att Itanium var ett misstag sedan AMD: s Opteron-chips började ta marknadsandelar. AMD64 hade också stöd från stora mjukvaruföretag som Microsoft, som valde AMD64 som sin 64-bitars arkitektur. Till slut blev AMD64 så populärt att Intel var tvungen att göra sina egna AMD64-serverchips som heter Xeon, och AMD64 blev x86-64.
Men här är grejen: Xeon ersatte inte Itanium. Intel och HP hade i flera år hopp om att denna strategi med dubbla arkitekturer skulle fungera, även när företag som Dell och IBM slutade sälja Itanium-servrar. Itanium slutade ta emot årliga uppdateringar i mitten av 2000-talet, och dess sista chip lanserades 2017. Den lades slutligen ner 2020, men inte tidigare utlöste en massiv rättegång mellan Oracle och HP över stöd. Om Itanium var imponerande var det helt enkelt för att den vägrade dö.
Atom: Lika snabb som en atom är stor
Så småningom rensade Intel upp sin handling i kölvattnet av Pentium 4 och Itanium fiasko och återvände till sin traditionella ledarposition. I slutet av 2000-talet såg Intel möjligheter bortom stationära datorer, bärbara datorer och servrar eftersom enheter som iPod blev extremt populära. Men Intel hade större ambitioner än att driva enheter som fick plats i fickan; den ville ha Intel-processorer i allt som kunde tänkas ha en processor. Intel behövde ett chip som var litet, effektivt och precis tillräckligt snabbt för att klara sig, så 2008 lanserade företaget Atom.
Efter att ha tagit ett par år på sig att stryka ut knäcken i de första Atom-chippen, var Intel redo att lansera Atom Z600, som var tänkt att fånga smarttelefonmarknaden från Arm. Den skröt prestanda som var mycket överlägsen allt Arm kunde erbjuda och hade samma strömförbrukning. Anandtech var säker på att Z600 skulle förändra allt, säger, "smarttelefonmarknaden om 5 år kommer inte att se ut som en förlängning av vad vi ser idag."
Så varför har inte din telefon eller brödrost en Atom-processor? Den kanske viktigaste anledningen är att x86 aldrig hade använts för smartphones eller andra enheter, så programvaran skulle behöva skrivas om. Detta var i princip samma misstag som Intel gjorde med Itanium, och det dödade sina smartphoneplaner efter sex år. Det hjälpte förmodligen inte heller att Atoms enda anspråk på berömmelse var netbooken och "sakernas internet",
Men nyligen hittade Intel äntligen ett hem för Atom i nätverksenheter och dess nya hybridprocessorer som 13900K, som har 16 E-kärnor härstammar från Atom-processorer. Det ändrar inte det faktum att Atom var en katastrof i över ett decennium, men det är åtminstone användbart för något nu.
Core i7-7700K: Intel slutar försöka
Intel ersatte Net Burst med Core, en arkitektur som hittade en balans mellan IPC och frekvens, och det blev direkt en hit. CPU: er som Core 2 Duo E6300 och Core 2 Quad Q6600 var mycket snabbare än AMD: s nedslående efterträdare till Athlon, Phenom. Intels förnyade angrepp på PC kulminerade med uppgörelsen mellan andra generationens Sandy Bridge och AMD: s FX Bulldozer-processorer 2011, och Intel vann enkelt. Intel var på uppgång igen.
Så hur fortsatte Intel detta momentum? Genom att i princip starta samma CPU om och om igen. Det betyder inte att Intel inte gjorde några framsteg alls; företaget följde "tick-tock"-modellen, där Intel släppte en CPU varje generation med en ny tillverkningsnod (tick) och sedan en CPU med en ny arkitektur (tock), upprepande i och för sig. Men dessa tekniska vinster slutade översättas till betydande prestanda- och värdeförbättringar som de hade tidigare, och det berodde på att Intel inte behövde konkurrera längre.
Core i7-7700K var kanske den mest ökända av dessa chips eftersom det bokstavligen var en Core i7-6700K med några extra MHz.
Slutresultatet blev sjunde generationens Kaby Lake, som lanserades 2017 och varken var en bock eller en tock utan istället en "optimering", vilket vill säga att det bara var senaste generationens processorer med högre klocka hastigheter. Core i7-7700K var kanske den mest ökända av dessa chips eftersom det bokstavligen var en Core i7-6700K med några extra MHz. PCGamesN var särskilt svidande i sin recension, och sa att det var "en deprimerande skiva kisel."
Den här historien har ett lyckligt slut eftersom AMD äntligen gjorde comeback två månader senare genom att lansera sin Ryzen 1000 processorer. Dessa första generationens marker var inte vinnare i spel, men de hade fantastiska multi-core prestanda. Ryzen 7 1700 slog 7700K i princip vilken flerkärnig arbetsbelastning som helst samtidigt som den kostade ungefär lika mycket. Körsbäret på toppen var Intels bråttom att få ut sin åttonde generationens processorer samma år, vilket innebar att Kaby Lake inte ens klarade det ett helt år innan det blev föråldrat.
Core i3-8121U: Vi pratar inte om 10nm
Även om Intel var bekväm med att lansera samma CPU två gånger i rad, var det inte meningen att Kaby Lake skulle existera. Intel hade alltid tänkt hålla sig till tick-tock-modellen och lansera en 10nm CPU efter den sjätte generationen, men utvecklingen gick dåligt för företagets 10nm-nod. Planen för 10nm var extremt ambitiös. Den var tänkt att ha nästan tredubblad densitet på 14nm, förutom sin högre effektivitet. Intel borde ha vetat att inte göra detta efter det kämpade för att få ut sina 14nm-processorer i tid, men det ville ha teknisk överlägsenhet, så det gick vidare.
Det ursprungliga målet för 10nm var 2015, men eftersom 14nm blev försenat gjorde 10nm det också. 2017 var det nya lanseringsdatumet, men istället för 10nm processorer lanserade Intel sin tredje och fjärde 14nm CPU: er. Slutligen lanserade Intel en 10nm CPU baserad på Cannon Lake-arkitekturen, Core i3-8121U, i 2018. Tyvärr signalerade det inte starten på en helt ny generation processorer som använder spjutspetsteknologi utan slutet på Intels ledarskap.
Core i3-8121U 2018 signalerade slutet på Intels ledarskap.
8121U var en fruktansvärd demonstration av 10nm och en fruktansvärd produkt i sig. 10nm-noden var så trasig att Intel bara kunde tillverka en liten processor med dubbla kärnor med dess integrerade grafik avsiktligt inaktiverad, förmodligen för att de inte fungerade korrekt. Intel hade bitit av sig mer än vad det kunde tugga med 10nm, och konsekvenserna av företagets hybris skulle förändra dess bana för alltid. Med 10nm fast i utvecklingshelvetet kunde Intel bara lita på 14nm för allt som krävde en betydande mängd prestanda.
Som en sidoanteckning listar Intel alla processorer som de har lanserat under de senaste två decennierna på sin webbplats, och medan sidan för 8121U finns fortfarande kvar, sidan för alla 10nm Cannon Lake processorer har raderats, nästan som om Intel skäms.
Core i9-11900K: Misslyckas med att uppnå lyft
Intel fortsatte med 14nm i åratal, och även om varje generation tog med sig fler kärnor än den förra, var frekvensen vinsterna från varje förfining av 14nm blev mindre, och att lägga till fler kärnor ökade kraften dramatiskt konsumtion. När Intel lanserade sin 10:e generationens processorer (den sjätte i raden som använder 14nm), använde AMD redan TSMC: s 7nm för sina Ryzen 3000-processorer. Intels toppmodell Core i9-10900K kunde inte slå AMDs Ryzen 9 3900X, som inte ens var flaggskeppet och inte hade PCIe 4.0-stöd, till skillnad från AMD-processorer.
Om 10nm inte var ett alternativ, då var det enda att göra att introducera en ny arkitektur. Intel beslutade att backportera sina mobilorienterade Ice Lake-chips till 14nm, vilket ger en välbehövlig IPC-ökning på 19 %. Intel borde kanske ha gjort detta tidigare istället för att vänta på den sjunde generationens 14nm-processorer, men bättre sent än aldrig, eller hur?
Så 11:e generationens Rocket Lake-processorer kom med en helt ny arkitektur, men detta kom till ett pris. För det första, att backportera en CPU designad för en mycket tätare nod innebar att kärnorna var massiva på 14nm. För det andra ökar strömförbrukningen även på äldre processer, vilket gör det mer utmanande att lägga till fler kärnor och öka klockhastigheten. Slutresultatet blev "flaggskeppet" Core i9-11900K, som hade ynka åtta kärnor och en formstorlek på 276 mm2 - det är färre kärnor än 10900K samtidigt som den var större.
11900K var dömd; det var tekniskt bakvänt och alldeles för dyrt på $539. Det kunde knappt matcha $450 Ryzen 7 5800X (för att inte tala om Ryzen 9 5900X och 5950X) och förlorade till och med mot 10900K i allt som inte var extremt enkeltrådigt. Det är chockerande Intel spenderade forskning och utveckling på en helt ny CPU som inte ens kunde slå sin föregångare på ett övertygande sätt. Det är möjligt att Rocket Lake skapades för det enda syftet att få PCIe 4.0 på en Intel stationär CPU. Åtminstone resten av Rocket Lake-sortimentet var anständigt sedan AMD slutade tävla i low-end och mellanregister.
En comeback, men till vilken kostnad?
Med sin 12:e och 13:e generationens processorer har Intel äntligen återgått till prestandaledarskapet inom PC, men skadan har redan skett. 10nm var tänkt att lanseras 2015, men det lanserades framgångsrikt först 2021 med Alder Lake och Ice Lake för servrar. Sju hela år av 14nm-processorer har reducerat Intel till bara en skugga av sitt forna jag, något som inte hade hänt när Intel skruvade ihop med Pentium 4, Itanium eller Atom.
En röd tråd mellan alla dessa misslyckanden är Intels hänsynslöshet och bristande försiktighet. Intel antog att Pentium 4 skulle vara bra och nå 10GHz, till och med 30GHz, utan problem. Intel antog att Itanium skulle styra datacentret och övervägde aldrig på allvar möjligheten att ingen ville skriva om varenda del av x86-mjukvaran. Intel antog att Atom skulle lyckas helt enkelt för att det var en fantastisk hårdvara. Intel antog att dess ingenjörer kunde göra vad som helst och siktade på en löjlig generationsvinst på 10nm.
Å andra sidan är det också ganska ironiskt att två av Intels mest uppmärksammade misslyckanden har gjort det möjligt för företaget att göra comeback. Hybridarkitektur-CPU: er som 13900K är bara möjliga på grund av Atom, och utan E-kärnor skulle dessa processorer helt enkelt vara för stora och strömkrävande. 10nm spelar också en stor roll i Intels comeback eftersom det sätter företagets chips i grov paritet med de som är fabbade på TSMC. Förhoppningsvis har denna katastrof med 10nm gett Intel en nyfunnen uppskattning för hur planer kan gå fel.