6 najgorszych procesorów Intel wszech czasów

Jeśli przeszukasz historię Intela, znajdziesz mnóstwo okropnych procesorów, z których wiele spowodowałoby ruinę finansową każdej innej firmy.

Szybkie linki

  • Pentium 4: pierwsza wielka katastrofa Intela
  • Itanium: marzenia Intela o wersji 64-bitowej wyparowują
  • Atom: Tak szybki jak atom jest duży
  • Core i7-7700K: Intel przestaje próbować
  • Core i3-8121U: Nie mówimy o procesie 10 nm
  • Core i9-11900K: Nie udało się osiągnąć startu
  • Powrót, ale jakim kosztem?

Firma Intel ostatnio podniosła się na duchu dzięki swojemu sukcesowi Chipy 13. generacji dla głównego nurtu i procesory Xeon czwartej generacji dla serwerów i stacji roboczych, z Rdzeń i9-13900K nawet o włos sięgnął po koronę wydajności. To był swego rodzaju powrót, ponieważ Intel od lat boryka się z problemami technologicznymi, a w roku 2022 r. w końcu odczuł niszczycielskie skutki finansowe utraty przewagi w tej przestrzeni nad swoją konkurentów. Jeśli spojrzysz wstecz na historię Intela, znajdziesz mnóstwo okropnych procesorów, a niektóre z nich sprawią, że będziesz się zastanawiać, dlaczego Intel dopiero niedawno zaczął popadać w problemy finansowe.

Pentium 4: pierwsza wielka katastrofa Intela

Na początku XXI wieku procesory były znacznie prostsze niż obecnie, a większość ulepszeń z generacji na generację skupiała się na szybkościach zegara. W rzeczywistości nazwy procesorów często nawiązywały do ​​ich szybkości zegara i niczego więcej. Kiedy Intel opracowywał architekturę Net Burst nowej generacji, dążenie do częstotliwości było oczywiste, a firma miała ambitne plany, które w równie wielkim stylu wyszły na marne.

AMD była pierwszą firmą, która wprowadziła na rynek procesor 1 GHz w Athlonie 1000, który pojawił się na rynku w marcu 2000 r., ale Intel miał już na oku barierę 2 GHz. Pod koniec roku wypuścił na rynek swoje pierwsze procesory Pentium 4, najszybszy z nich osiągnął 1,5 GHz. W 2001, Intel jako pierwszy zastosował częstotliwość 2 GHz z procesorem Pentium 4 2 GHz oraz a Model 3GHz wkrótce potem, w 2002 r.

Jednak te częstotliwości miały wysoką cenę. Intel był zmuszony wydłużyć potok Net Burst, co oznaczało, że liczba instrukcji na zegar (IPC) Pentium 4 była znacznie niższa niż w przypadku starszych procesorów Intela i AMD.

Początkowo plan Intela działał dobrze i chipy Pentium 4 zwykle pokonują Athlony AMD. Intel podwoił swoją strategię czyniąc potok Net Burst jeszcze dłuższym, aby osiągnąć wyższe częstotliwości zegara. Pentium 4 4 GHz miał zostać wprowadzony na rynek w 2005 roku, a wkrótce potem miał pojawić się procesor 10 GHz. Jednak strategia Intela opierała się na skalowaniu Dennarda, które zaobserwowało, że częstotliwość rośnie z każdym pokoleniem bez potrzeby zwiększania mocy. W 2005 roku Intel odkrył, że skalowanie Dennarda nie jest już stosowane i że nawet 4 GHz jest trudne do osiągnięcia, co prowadzi do rezygnacja z Pentium 4 GHz.

Decyzja Intela o zmniejszeniu IPC w celu uzyskania wyższych częstotliwości miała katastrofalne skutki, gdy wzrost częstotliwości ustał, a AMD objęło prowadzenie w 2004 roku. Intel ostatecznie porzucił Net Burst i zaprojektował zupełnie nową architekturę, w której priorytetem był IPC, a nie wzrost częstotliwości, jak ma to miejsce w większości nowoczesnych procesorów.

Itanium: marzenia Intela o wersji 64-bitowej wyparowują

W tym samym czasie, gdy Intel dostarczał Net Burst dla komputerów stacjonarnych, Intel przygotowywał niezwykle ambitny plan dotyczący procesorów serwerowych. Architektura x86, w której została wykorzystana Procesory Intel i AMD były ograniczone do obliczeń 32-bitowych, a dla powstającego rynku serwerów Intel chciał opracować procesory 64-bitowe z niespotykanymi wcześniej prędkości. Intel odrzucił pomysł stworzenia 64-bitowej wersji x86 i nawiązał współpracę z HP, aby stworzyć zupełnie nowa architektura IA-64, która zasilała procesory Itanium. Pierwsze chipy Itanium miały pojawić się w roku 1999 początek.

Rozwój Itanium był zakłócony, Jednakże. Przesunięto go na rok 2001, a budżet zaczął gwałtownie rosnąć. Kiedy w końcu wprowadzono go na rynek w 2001 roku, jego wydajność nie była specjalnie konkurencyjna w stosunku do innych procesorów x86 i tylko zdolność Itanium do wykonywania obliczeń w trybie 64-bitowym była główną zaletą. Ale Itanium miał podstawową wadę: nie mógł uruchomić oprogramowania x86. Całe istniejące oprogramowanie wymagało przepisania na architekturę IA-64, co nie było łatwym zadaniem.

Jeśli Itanium robił wrażenie, to po prostu dlatego, że nie chciał umrzeć.

Do 2003 roku AMD ukończyło własną architekturę 64-bitową o nazwie AMD64, która była wersją x86 z obsługą 64-bitów. Intel wcześniej zrezygnował z tej strategii z różnych powodów, ale z perspektywy czasu stało się jasne, że procesor Itanium był błędem, ponieważ chipy Opteron firmy AMD zaczęły zdobywać udziały w rynku. AMD64 cieszyło się również wsparciem największych producentów oprogramowania, takich jak Microsoft, którzy wybrali AMD64 jako preferowaną architekturę 64-bitową. W końcu AMD64 stało się tak popularne, że Intel musiał stworzyć własne chipy serwerowe AMD64 o nazwie Xeon, a AMD64 stało się x86-64.

Rzecz jednak w tym, że Xeon nie zastąpił Itanium. Intel i HP przez lata miały nadzieję, że ta strategia podwójnej architektury okaże się skuteczna, nawet gdy firmy takie jak Dell i IBM zaprzestały sprzedaży serwerów Itanium. Itanium przestał otrzymywać coroczne aktualizacje w połowie 2000 roku, a ostatni chip został wprowadzony na rynek w 2017 roku. Ostatecznie zaprzestano jego stosowania w 2020 r., ale nie wcześniej wywołało masowy pozew pomiędzy Oracle i HP nad wsparciem. Jeśli Itanium robił wrażenie, to po prostu dlatego, że nie chciał umrzeć.

Atom: Tak szybki jak atom jest duży

Ostatecznie Intel uporządkował swoje sprawy po fiasku Pentium 4 i Itanium i powrócił na swoją tradycyjną pozycję lidera. Pod koniec XXI wieku firma Intel dostrzegła możliwości wykraczające poza komputery stacjonarne, laptopy i serwery, gdy urządzenia takie jak iPod stały się niezwykle popularne. Ale Intel miał większe aspiracje niż zasilanie urządzeń, które zmieściłyby się w kieszeni; potrzebował procesorów Intel we wszystkim, co mogło mieć procesor. Intel potrzebował chipa, który będzie mały, wydajny i wystarczająco szybki, aby sobie z tym poradzić, dlatego w 2008 roku firma wprowadziła na rynek Atom.

Po kilku latach usuwania usterek w pierwszych chipach Atom, Intel był gotowy wypuścić Atom Z600, który miał przejąć rynek smartfonów od Arma. Szczycił się wydajnością znacznie przewyższającą wszystko, co mógł zaoferować Arm, i miał taki sam pobór mocy. Anandtech był pewien, że Z600 wszystko zmieni, mówiąc: „rynek smartfonów za 5 lat nie będzie wyglądał jak przedłużenie tego, co widzimy dzisiaj”.

Dlaczego więc Twój telefon lub toster nie ma procesora Atom? Być może najważniejszym powodem jest to, że x86 nigdy nie był używany w smartfonach ani innych urządzeniach, więc oprogramowanie musiałoby zostać napisane od nowa. Był to w zasadzie ten sam błąd, który Intel popełnił w przypadku Itanium i po sześciu latach położył kres swoim planom dotyczącym smartfonów. Pewnie nie pomogło też to, że jedynym powodem do sławy Atoma były netbooki i urządzenia „internetu rzeczy”,

Ale ostatnio Intel w końcu znalazł dom dla Atoma w urządzeniach sieciowych i swoich nowych hybrydowych procesorach, takich jak 13900K, który ma 16 rdzeni elektrycznych wywodzi się z procesorów Atom. Nie zmienia to faktu, że Atom przez ponad dekadę był katastrofą, ale przynajmniej do czegoś się przydał Teraz.

Core i7-7700K: Intel przestaje próbować

Intel zastąpił Net Burst architekturą Core, która znalazła równowagę pomiędzy IPC a częstotliwością i od razu stała się hitem. Procesory takie jak Core 2 Duo E6300 i Core 2 Quad Q6600 były znacznie szybsze niż Rozczarowujący następca Athlona AMD, Phenom. Ponowny atak Intela na komputery PC zakończył się w 2011 roku starciem pomiędzy procesorami Sandy Bridge drugiej generacji a procesorami AMD FX Bulldozer firmy AMD, w którym Intel z łatwością zwyciężył. Intel po raz kolejny zyskał na popularności.

Jak zatem Intel kontynuował tę dynamikę? Zasadniczo poprzez wielokrotne uruchamianie tego samego procesora. Nie oznacza to, że Intel w ogóle nie robił żadnego postępu; firma postępowała zgodnie z modelem „tik-tak”, w którym Intel wypuszczał procesor co generację z nowym węzłem produkcyjnym (tik), a następnie procesor z nową architekturą (tak), powtarzając się. Jednak te osiągnięcia technologiczne przestały przekładać się na znaczącą poprawę wydajności i wartości, jak miało to miejsce w przeszłości, a stało się tak dlatego, że Intel nie musiał już konkurować.

Core i7-7700K był prawdopodobnie najbardziej niesławnym z tych układów, ponieważ był to dosłownie Core i7-6700K z kilkoma dodatkowymi MHz.

Efektem końcowym był Kaby Lake siódmej generacji, który pojawił się na rynku w 2017 roku i nie był ani kleszczem, ani tock, ale zamiast tego „optymalizację”, co oznacza, że ​​były to po prostu procesory ostatniej generacji z wyższym taktowaniem prędkości. Core i7-7700K był prawdopodobnie najbardziej niesławnym z tych układów, ponieważ był to dosłownie Core i7-6700K z kilkoma dodatkowymi MHz. PCGamesN w swojej recenzji był szczególnie zjadliwy, mówiąc, że był to „przygnębiający kawałek krzemu”.

Ta historia ma szczęśliwe zakończenie, ponieważ AMD w końcu powróciło dwa miesiące później, wypuszczając na rynek Ryzen 1000 procesorów. Te chipy pierwszej generacji nie były zwycięzcami w grach, ale miały niesamowitą wielordzeniowość wydajność. Ryzen 7 1700 powalił 7700K w zasadzie przy każdym obciążeniu wielordzeniowym, a kosztował mniej więcej tyle samo. Wisienką na torcie był pośpiech Intela, aby wypuścić na rynek procesory ósmej generacji w tym samym roku, co oznaczało, że Kaby Lake nie przetrwał nawet całego roku, zanim stał się przestarzały.

Core i3-8121U: Nie mówimy o procesie 10 nm

Chociaż Intel czuł się komfortowo, uruchamiając ten sam procesor dwa razy z rzędu, Kaby Lake nigdy nie miało istnieć. Intel zawsze miał zamiar trzymać się modelu „tik-tak” i wypuścić procesor 10 nm po szóstej generacji, ale rozwój 10 nm węzła firmy szedł źle. Plan na 10 nm był niezwykle ambitny. Miał mieć niemal trzykrotnie większą gęstość niż 14 nm, poza wyższą wydajnością. Intel powinien był wiedzieć, że nie powinien tego robić po tym miała trudności z terminową produkcją procesorów 14 nm, ale chciał przewagi technologicznej, więc poszedł dalej.

Pierwotnym celem dla 10 nm był rok 2015, ale ponieważ 14 nm uległo opóźnieniu, 10 nm również. Nowym terminem premiery był rok 2017, ale zamiast procesorów 10 nm Intel wypuścił trzeci i czwarty procesor 14 nm Procesory. Wreszcie Intel wypuścił na rynek procesor 10 nm oparty na architekturze Cannon Lake, Core i3-8121U, w 2018. Niestety nie oznaczało to początku zupełnie nowej generacji procesorów wykorzystujących najnowocześniejsze technologie, ale koniec przywództwa Intela.

Core i3-8121U w 2018 roku zasygnalizował koniec przywództwa Intela.

8121U był straszną demonstracją 10 nm i produkt sam w sobie okropny. Węzeł 10 nm był tak uszkodzony, że Intel mógł wyprodukować jedynie mały dwurdzeniowy procesor ze zintegrowaną grafiką celowo wyłączoną, prawdopodobnie z powodu nieprawidłowego działania. Intel ugryzł więcej, niż był w stanie przełknąć w procesie 10 nm, a konsekwencje pychy firmy na zawsze zmienią jej trajektorię. Ponieważ proces 10 nm utknął w piekle rozwoju, Intel mógł polegać wyłącznie na procesie 14 nm we wszystkim, co wymagało znacznej wydajności.

Na marginesie, Intel wymienia na swojej stronie internetowej wszystkie procesory, które wprowadził na rynek w ciągu ostatnich dwóch dekad strona dotycząca 8121U nadal istnieje, strona dla wszystkich Procesory Cannon Lake wykonane w procesie technologicznym 10 nm został usunięty, prawie tak, jakby Intel był zawstydzony.

Core i9-11900K: Nie udało się osiągnąć startu

Intel przez lata kontynuował technologię 14 nm i chociaż każda generacja przynosiła więcej rdzeni niż poprzednia, częstotliwość zyski z każdego udoskonalenia 14 nm były coraz mniejsze, a dodanie kolejnych rdzeni radykalnie zwiększało moc konsumpcja. Zanim Intel wypuścił na rynek procesory 10. generacji (szóstą z rzędu wykorzystującą proces 14 nm), AMD korzystało już z procesu 7 nm firmy TSMC w swoich procesorach Ryzen 3000. Najwyższy poziom Intela Core i9-10900K nie był w stanie pokonać AMD Ryzen 9 3900X, który nie był nawet okrętem flagowym i nie miał obsługi PCIe 4.0, w przeciwieństwie do procesorów AMD.

Jeśli 10 nm nie wchodziło w grę, jedyną rzeczą, jaką należało zrobić, było wprowadzenie nowej architektury. Intel zdecydował się przenieść swoje zorientowane na urządzenia mobilne chipy Ice Lake do technologii 14 nm, co zapewniło bardzo potrzebny wzrost IPC o 19%. Być może Intel powinien był zrobić to wcześniej, zamiast czekać na siódmą generację procesorów 14 nm, ale lepiej późno niż wcale, prawda?

Tak więc procesory Rocket Lake 11. generacji mają zupełnie nową architekturę, ale ma to swoją cenę. Po pierwsze, przeniesienie procesora zaprojektowanego dla znacznie gęstszego węzła oznaczało, że rdzenie były masywne w procesie 14 nm. Po drugie, zużycie energii wzrasta również w przypadku starszych procesów, co sprawia, że ​​dodanie większej liczby rdzeni i zwiększenie szybkości zegara jest większym wyzwaniem. Efektem końcowym był „flagowy” Core i9-11900K, który miał marne osiem rdzeni i matrycę o wielkości 276 mm2 — to mniej rdzeni niż 10900K, a jednocześnie był większy.

Model 11900K był skazany na porażkę; był technologicznie zacofany i zdecydowanie za drogi – 539 dolarów. Ledwo dorównywał Ryzenowi 7 5800X za 450 dolarów (nie mówiąc już o Ryzen 9 5900X i 5950X), a nawet przegrałem z 10900K w czymkolwiek, co nie było wyjątkowo jednowątkowe. To szokujące, że Intel wydał środki na prace badawczo-rozwojowe na zupełnie nowy procesor, który nie był w stanie przekonująco pokonać nawet swojego poprzednika. Możliwe, że Rocket Lake zostało stworzone wyłącznie w celu uzyskania PCIe 4.0 na procesorze Intel do komputerów stacjonarnych. Przynajmniej reszta oferty Rocket Lake była przyzwoita, odkąd AMD przestało konkurować w dolnym i średnim zakresie.

Powrót, ale jakim kosztem?

Dzięki procesorom 12. i 13. generacji Intel w końcu powrócił na pozycję lidera wydajności w komputerach PC, ale szkody już zostały wyrządzone. Proces 10 nm miał zostać wprowadzony na rynek w 2015 r., ale pomyślnie wprowadzono go na rynek dopiero w 2021 r. wraz z serwerami Alder Lake i Ice Lake. Siedem pełnych lat procesorów 14 nm zredukowało Intela do zaledwie cienia samego siebie, co nie miało miejsca, gdy Intel schrzanił sprawę z Pentium 4, Itanium lub Atomem.

Wspólnym wątkiem wszystkich tych niepowodzeń jest lekkomyślność i brak ostrożności Intela. Intel założył, że Pentium 4 będzie świetny i bez problemu osiągnie 10 GHz, a nawet 30 GHz. Intel zakładał, że Itanium będzie rządził centrum danych i nigdy poważnie nie rozważał możliwości, że nikt nie będzie chciał przepisać każdego pojedynczego fragmentu oprogramowania x86. Intel zakładał, że Atom odniesie sukces po prostu dlatego, że był świetnym sprzętem. Intel zakładał, że jego inżynierowie mogą zrobić wszystko i dążył do absurdalnego przyrostu pokoleń w procesie 10 nm.

Z drugiej strony, ironią losu jest to, że dwie z najbardziej głośnych porażek Intela pozwoliły firmie na powrót. Procesory o architekturze hybrydowej, takie jak 13900K, są możliwe tylko dzięki Atomowi i bez rdzeni elektronicznych te procesory byłyby po prostu zbyt duże i energochłonne. Proces 10 nm również odgrywa ogromną rolę w powrocie Intela, ponieważ stawia chipy firmy na mniej więcej takim samym poziomie, jak te produkowane w TSMC. Miejmy nadzieję, że ta katastrofa związana z technologią 10 nm pozwoliła firmie Intel na nowo docenić ryzyko niepowodzenia planów.