Se guardi alla storia di Intel, troverai tonnellate di CPU orribili, molte delle quali avrebbero causato la rovina finanziaria di qualsiasi altra azienda.
Link veloci
- Pentium 4: il primo grande disastro di Intel
- Itanium: i sogni di Intel a 64 bit evaporano
- Atomo: veloce quanto è grande un atomo
- Core i7-7700K: Intel smette di provare
- Core i3-8121U: non parliamo di 10 nm
- Core i9-11900K: incapacità di raggiungere il decollo
- Un ritorno, ma a quale prezzo?
Intel è stata recentemente sostenuta dal successo ottenuto con i suoi prodotti Chip di 13a generazione per il mainstream e processori Xeon di quarta generazione per server e workstation, con il Nucleo i9-13900K addirittura rivendicando per un soffio il coronamento della prestazione. Questo è stato una sorta di ritorno, poiché Intel ha lottato tecnologicamente per anni e, nel Nel 2022, abbiamo finalmente avvertito gli effetti finanziari devastanti della perdita di vantaggio in questo spazio rispetto al suo concorrenti. Se guardi indietro alla storia di Intel, troverai tonnellate di CPU orribili, e alcune di queste ti faranno chiedere come mai Intel abbia iniziato a imbattersi in problemi finanziari solo di recente.
Pentium 4: il primo grande disastro di Intel
All'inizio degli anni 2000, le CPU erano molto più semplici di quanto lo siano oggi e la maggior parte dei miglioramenti di generazione in generazione si concentravano sulla velocità di clock. In effetti, le CPU prendevano spesso il nome dalla loro velocità di clock e nient'altro. Quando Intel stava sviluppando la sua architettura Net Burst di prossima generazione, sembrava ovvio provare a inseguire la frequenza, e l'azienda aveva grandi progetti, piani che andarono fuori dai binari in modo altrettanto grande.
AMD è stata la prima azienda a lanciare una CPU da 1GHz con l'Athlon 1000, lanciato nel marzo 2000, ma Intel aveva già gli occhi puntati sulla barriera dei 2GHz. Entro la fine dell'anno ha lanciato i suoi primi CPU Pentium 4, il più veloce dei quali è arrivato a 1,5 GHz. Nel 2001, Intel è stata la prima a 2GHz con il suo chip Pentium 4 da 2GHz e a Modello da 3GHz presto seguito nel 2002.
Tuttavia, queste frequenze hanno avuto un prezzo elevato. Intel è stata costretta a rendere la pipeline di Net Burst straordinariamente lunga, il che significava che le istruzioni per clock (IPC) del Pentium 4 erano ben al di sotto anche delle CPU Intel più vecchie e di quelle di AMD.
All'inizio, il piano di Intel funzionava bene e i chip Pentium 4 di solito battevano gli Athlon di AMD. Intel ha raddoppiato la sua strategia rendendo la pipeline di Net Burst ancora più lunga per raggiungere velocità di clock più elevate. Un Pentium 4 da 4GHz sarebbe stato lanciato nel 2005, seguito da una CPU da 10GHz nel prossimo futuro. Tuttavia, la strategia di Intel si basava sul Dennard Scaling, che osservava che la frequenza aumentava ad ogni generazione senza bisogno di maggiore potenza. Nel 2005, Intel aveva scoperto che il Dennard Scaling non veniva più applicato e che anche i 4GHz erano difficili da raggiungere, portando alla cancellazione del Pentium 4GHz.
La decisione di Intel di ridurre l'IPC per raggiungere frequenze più alte ha avuto conseguenze disastrose quando questi guadagni di frequenza si sono esauriti e AMD ha preso il comando nel 2004. Intel ha finito per eliminare Net Burst e progettare un'architettura nuova di zecca che dava priorità all'IPC rispetto ai guadagni di frequenza come la maggior parte delle CPU moderne.
Itanium: i sogni di Intel a 64 bit evaporano
Nello stesso momento in cui Intel lanciava Net Burst per desktop, Intel stava preparando un piano estremamente ambizioso per le CPU dei server. L'architettura x86, utilizzata per Le CPU di Intel e AMD erano limitate al calcolo a 32 bit e, per il mercato emergente dei server, Intel voleva sviluppare processori a 64 bit con prestazioni mai viste prima velocità. Intel ha scartato l'idea di realizzare una versione a 64 bit di x86 e ha collaborato con HP per creare la versione la nuovissima architettura IA-64, che alimentava le CPU Itanium. I primi chip Itanium erano previsti per il 1999 lancio.
Lo sviluppo di Itanium è stato travagliato, Tuttavia. Fu posticipato al 2001 e il bilancio cominciò ad aumentare vertiginosamente. Quando finalmente venne lanciato nel 2001, le sue prestazioni non erano esattamente competitive con quelle di altre CPU x86, e solo la capacità di Itanium di elaborare a 64 bit era un importante punto di forza. Ma Itanium aveva un difetto fondamentale: non poteva eseguire software x86. Tutto il software esistente doveva essere riscritto per l'architettura IA-64, il che non era un compito da poco.
Se Itanium impressionava, era semplicemente per il suo rifiuto di morire.
Nel 2003, AMD aveva completato la propria architettura a 64 bit chiamata AMD64, che era una versione di x86 con supporto a 64 bit. Intel aveva precedentemente deciso contro questa strategia per vari motivi, ma col senno di poi, era chiaro che Itanium era stato un errore poiché i chip Opteron di AMD avevano iniziato a conquistare quote di mercato. AMD64 ha avuto anche il supporto di importanti società di software come Microsoft, che hanno scelto AMD64 come architettura a 64 bit preferita. Alla fine, AMD64 divenne così popolare che Intel dovette creare i propri chip server AMD64 chiamati Xeon e AMD64 divenne x86-64.
Ma il punto è questo: Xeon non ha sostituito Itanium. Intel e HP hanno sperato per anni che questa strategia a doppia architettura avrebbe funzionato, anche se aziende come Dell e IBM hanno smesso di vendere server Itanium. Itanium ha smesso di ricevere aggiornamenti annuali a metà degli anni 2000, con il lancio dell'ultimo chip nel 2017. È stato finalmente interrotto nel 2020, ma non prima scatenando una massiccia causa tra Oracle e HP oltre il supporto. Se Itanium impressionava, era semplicemente per il suo rifiuto di morire.
Atomo: veloce quanto è grande un atomo
Alla fine, Intel fece pulizia sulla scia dei fiaschi del Pentium 4 e dell'Itanium e ritornò alla sua tradizionale posizione di leadership. Verso la fine degli anni 2000, Intel vide opportunità che andavano oltre i desktop, i laptop e i server poiché dispositivi come l’iPod diventavano estremamente popolari. Ma Intel aveva aspirazioni più grandi che alimentare dispositivi che potessero stare in tasca; voleva CPU Intel in tutto ciò che poteva concepibilmente avere un processore. Intel aveva bisogno di un chip che fosse piccolo, efficiente e abbastanza veloce da farcela, così nel 2008 l'azienda ha lanciato Atom.
Dopo aver impiegato un paio d'anni per appianare i problemi dei primi chip Atom, Intel era pronta a lanciare l'Atom Z600, che avrebbe dovuto conquistare il mercato degli smartphone di Arm. Vantava prestazioni di gran lunga superiori a qualsiasi cosa Arm potesse offrire e aveva lo stesso consumo energetico. Anandtech era fiducioso che la Z600 avrebbe cambiato tutto, affermando: "tra 5 anni il mercato degli smartphone non sembrerà un'estensione di quello che vediamo oggi".
Quindi, perché il tuo telefono o tostapane non ha una CPU Atom? Forse la ragione più importante è che x86 non è mai stato utilizzato per smartphone o altri dispositivi, quindi il software andrebbe riscritto. Questo è stato fondamentalmente lo stesso errore che Intel ha fatto con Itanium, e ha ucciso i suoi piani per gli smartphone dopo sei anni. Probabilmente non ha aiutato nemmeno il fatto che l'unica pretesa di fama di Atom fosse il netbook e i dispositivi "internet delle cose",
Ma recentemente, Intel ha finalmente trovato una casa per Atom nei dispositivi di rete e nelle sue nuove CPU ibride come la 13900K, che ha 16 E-core discendente dalle CPU Atom. Ciò non cambia il fatto che Atom sia stato un disastro per oltre un decennio, ma almeno è utile a qualcosa Ora.
Core i7-7700K: Intel smette di provare
Intel ha sostituito Net Burst con Core, un'architettura che ha trovato un equilibrio tra IPC e frequenza, ed è stato subito un successo. CPU come Core 2 Duo E6300 e Core 2 Quad Q6600 erano molto più veloci di Il deludente successore di AMD di Athlon, Phenom. Il rinnovato assalto di Intel nel settore PC è culminato con lo scontro tra la sua seconda generazione Sandy Bridge e le CPU FX Bulldozer di AMD nel 2011, e Intel ha vinto facilmente. Intel era di nuovo in crescita.
Quindi, come ha fatto Intel a continuare questo slancio? Essenzialmente avviando la stessa CPU più e più volte. Questo non vuol dire che Intel non stesse facendo alcun progresso; l'azienda ha seguito il modello "tick-tock", in cui Intel ha rilasciato una CPU ogni generazione con un nuovo nodo di produzione (tick) e poi una CPU con una nuova architettura (tock), ripetendo all'infinito. Ma questi progressi tecnologici hanno smesso di tradursi in miglioramenti significativi in termini di prestazioni e valore, come accadeva in passato, e ciò è avvenuto perché Intel non aveva più bisogno di competere.
Il Core i7-7700K era forse il più famigerato di questi chip poiché era letteralmente un Core i7-6700K con qualche MHz in più.
Il risultato finale è stato il Kaby Lake di settima generazione, lanciato nel 2017 e che non era né un segno di spunta né un tock ma invece una "ottimizzazione", vale a dire che si trattava solo di CPU di ultima generazione con clock più alto velocità. Il Core i7-7700K era forse il più famigerato di questi chip poiché era letteralmente un Core i7-6700K con qualche MHz in più. PCGamesN è stato particolarmente severo nella sua recensione, dicendo che si trattava di "una deprimente fetta di silicio".
Questa storia ha un lieto fine perché AMD è finalmente tornata alla ribalta due mesi dopo lanciando il suo Ryzen 1000 CPU. Questi chip di prima generazione non erano vincenti nei giochi, ma avevano un multi-core straordinario prestazione. Il Ryzen 7 1700 ha battuto il 7700K praticamente con qualsiasi carico di lavoro multi-core, costando più o meno lo stesso. La ciliegina sulla torta è stata la fretta di Intel di lanciare sul mercato le sue CPU di ottava generazione nello stesso anno, il che significa che Kaby Lake non ce l'ha fatta nemmeno un anno intero prima che diventasse obsoleta.
Core i3-8121U: non parliamo di 10 nm
Sebbene Intel fosse a suo agio nel lanciare la stessa CPU due volte di seguito, Kaby Lake non avrebbe mai dovuto esistere. Intel aveva sempre avuto intenzione di attenersi al modello tick-tock e lanciare una CPU a 10 nm dopo la sesta generazione, ma lo sviluppo stava andando male per il nodo a 10 nm dell'azienda. Il piano per 10 nm era estremamente ambizioso. Doveva avere quasi il triplo della densità di 14 nm, oltre alla sua maggiore efficienza. Intel avrebbe dovuto sapere di non farlo dopo ha faticato a far uscire in tempo le sue CPU da 14 nm, ma voleva la superiorità tecnologica, quindi è andato avanti.
L’obiettivo originale per i 10 nm era il 2015, ma poiché i 14 nm hanno subito ritardi, anche i 10 nm hanno subito ritardi. Il 2017 era la nuova data di lancio, ma invece delle CPU da 10 nm, Intel ha lanciato la sua terza e quarta CPU da 14 nm CPU. Infine, Intel ha lanciato una CPU da 10 nm basata sull'architettura Cannon Lake, il Core i3-8121U, in 2018. Sfortunatamente, non segnò l'inizio di una nuova generazione di CPU che utilizzavano tecnologie all'avanguardia, ma la fine della leadership di Intel.
Il Core i3-8121U nel 2018 ha segnato la fine della leadership di Intel.
L'8121U è stata una terribile dimostrazione di 10 nm e un prodotto terribile di per sé. Il nodo da 10 nm era così rotto che Intel poteva produrre solo una minuscola CPU dual-core con la grafica integrata intenzionalmente disabilitata, presumibilmente perché non funzionava correttamente. Intel aveva fatto il passo più lungo della gamba con i 10 nm e le conseguenze dell'arroganza dell'azienda avrebbero cambiato la sua traiettoria per sempre. Con i 10 nm bloccati nell'inferno dello sviluppo, Intel poteva fare affidamento solo sui 14 nm per tutto ciò che richiedeva una quantità significativa di prestazioni.
Come nota a margine, Intel elenca tutte le CPU lanciate negli ultimi due decenni sul suo sito Web, e nel frattempo la pagina per l'8121U esiste ancora, la pagina per tutti CPU Cannon Lake da 10 nm è stato cancellato, quasi come se Intel fosse imbarazzata.
Core i9-11900K: incapacità di raggiungere il decollo
Intel ha continuato per anni con i 14 nm e, sebbene ogni generazione abbia portato più core della precedente, la frequenza è aumentata i guadagni derivanti da ogni perfezionamento di 14 nm si stavano riducendo e l'aggiunta di più core aumentava notevolmente la potenza consumo. Quando Intel ha lanciato le sue CPU di decima generazione (la sesta consecutiva a utilizzare 14 nm), AMD stava già utilizzando i 7 nm di TSMC per le sue CPU Ryzen 3000. La fascia alta di Intel Il Core i9-10900K non può battere il Ryzen 9 3900X di AMD, che non era nemmeno il fiore all'occhiello e non aveva il supporto PCIe 4.0, a differenza delle CPU AMD.
Se i 10 nm non fossero un'opzione, l'unica cosa da fare era introdurre una nuova architettura. Intel ha deciso di eseguire il backport dei suoi chip Ice Lake orientati ai dispositivi mobili a 14 nm, apportando un aumento IPC del 19% tanto necessario. Forse Intel avrebbe dovuto farlo prima invece di aspettare la settima generazione di CPU a 14 nm, ma meglio tardi che mai, giusto?
Quindi le CPU Rocket Lake di undicesima generazione erano dotate di un'architettura completamente nuova, ma questo aveva un prezzo. In primo luogo, eseguire il backport di una CPU progettata per un nodo molto più denso significava che i core erano massicci su 14 nm. In secondo luogo, il consumo energetico aumenta anche nei processi più vecchi, il che rende più impegnativo l'aggiunta di più core e l'aumento della velocità di clock. Il risultato finale è stato il Core i9-11900K "di punta", che aveva otto miseri core e una dimensione del die di 276 mm2: meno core del 10900K pur essendo più grande.
Il 11900K era condannato; era tecnologicamente arretrato e troppo costoso a $ 539. Potrebbe a malapena eguagliare il Ryzen 7 5800X da $ 450 (per non parlare del Ryzen 9 5900X e 5950X) e ha persino perso contro il 10900K in tutto ciò che non era estremamente single-thread. È scioccante che Intel abbia speso ricerca e sviluppo su una CPU nuova di zecca che non riusciva nemmeno a battere in modo convincente il suo predecessore. È possibile che Rocket Lake sia stato realizzato con l'unico scopo di ottenere PCIe 4.0 su una CPU desktop Intel. Almeno il resto della gamma Rocket Lake era decente da quando AMD ha smesso di competere nella fascia bassa e media.
Un ritorno, ma a quale prezzo?
Con le sue CPU di 12a e 13a generazione, Intel è finalmente tornata alla leadership in termini di prestazioni nei PC, ma il danno è già stato fatto. Il lancio di 10nm avrebbe dovuto essere lanciato nel 2015, ma è stato lanciato con successo solo nel 2021 con Alder Lake e Ice Lake per i server. Sette anni interi di CPU a 14 nm hanno ridotto Intel a una mera ombra di se stessa, qualcosa che non era accaduto quando Intel aveva sbagliato con Pentium 4, Itanium o Atom.
Un filo conduttore tra tutti questi fallimenti è l'incoscienza e la mancanza di cautela di Intel. Intel pensava che il Pentium 4 sarebbe stato eccezionale e avrebbe raggiunto i 10 GHz, anche i 30 GHz, senza problemi. Intel dava per scontato che Itanium avrebbe governato il data center e non ha mai considerato seriamente la possibilità che nessuno volesse riscrivere ogni singolo pezzo del software x86. Intel pensava che Atom avrebbe avuto successo semplicemente perché era un ottimo componente hardware. Intel dava per scontato che i suoi ingegneri potessero fare qualsiasi cosa e mirava a un ridicolo guadagno generazionale in 10 nm.
D'altra parte, è anche piuttosto ironico che due dei fallimenti di più alto profilo di Intel abbiano permesso all'azienda di tornare alla ribalta. Le CPU con architettura ibrida come la 13900K sono possibili solo grazie ad Atom, e senza E-core, queste CPU sarebbero semplicemente troppo grandi e assetate di energia. Anche i 10 nm svolgono un ruolo importante nel ritorno di Intel in quanto pone i chip dell'azienda alla pari con quelli fabbricati da TSMC. Si spera che questo disastro con i 10 nm abbia dato a Intel un ritrovato apprezzamento per come i piani possano andare storti.