Az Intel évek óta dolgozik a következő generációs szerverprocesszorokon, és most végre készen állnak.
Nem titok, hogy az Intel évek óta küzd azért, hogy lépést tartson az adatközpontban lévő riválisaival, amelyekben elsősorban az AMD, de az Arm-alapú CPU-tervezők, például az Ampere és az Amazon is megtalálhatók. A vállalat Datacenter és AI Group 0%-os működési haszonkulcsról számolt be a tavalyi harmadik negyedévben, ami lényegében azt jelenti, hogy annyit keres, mint amennyit veszít; mindössze egy évvel ezelőtt 2,3 milliárd dollárt keresett. A fő probléma az, hogy az Intel egyszerűen nem tudott lépést tartani versenytársaival, de a vadonatúj CPU-k és GPU-k megjelenése ezen változtathat. 4. generációs Xeon Scalable processzoraival és Max sorozatú CPU-ival és GPU-ival az Intel célja, hogy megfordítsa évek óta tartó hanyatlását.
A 4. generációs Xeon fontos előrelépés, de nem egészen nyerő
Amióta az AMD 2019-ben bemutatta második generációs Epyc Rome CPU-it, az Intel a hátsó lábon van. Az adatközpontban a hatékonyság a király, az Epyc Rome pedig a TSMC 7 nm-es eljárását használta, ami sokkal hatékonyabb, mint az akkoriban használt ősi 14 nm-es Intel csomópont. A Róma szintén 64 maggal érkezett, míg az Intel csak 28-at tudott összegyűjteni a tipikus Xeon CPU-kon, papíron létezett 56 magos opció, bár ez soha nem jött be. Nemcsak a 7 nm-es csomópont tette lehetővé Rómát, hanem egy chiplet-kialakítás is, amely lehetővé tette az AMD számára, hogy több tonna szilícium pazarlása nélkül növelje a magok számát.
A 4. generációs Xeon CPU (kódnevén Sapphire Rapids) sok szempontból az Intel felfogása az Epyc-ről. Az Intel 10 nm-es folyamatát használja, ami nagyjából megegyezik a TSMC 7 nm-ével, és négy chiplettel vagy csempével rendelkezik, amelyek mindegyike 15 maggal rendelkezik, és minden egyéb funkciót, amelyre a CPU-nak szüksége van. Az, hogy minden chiplet alapvetően önmagában egy CPU, az a legfontosabb különbség a 4. generációs Xeon és a legújabb Epyc CPU-k között, amelyeknek kétféle matricája van: a magokhoz és az I/O-hoz. Ez azt jelenti, hogy a Sapphire Rapids valójában leginkább az első generációs Epyc Napleshez hasonlít, amely Az Intelt 2017-ben kigúnyolták, amiért "összeragasztott" halmazaik vannak.
Az Intel tagadhatatlanul le van maradva a chiplet játékban még a 4. generációs Xeonnal is, de a cégnek van egy trükkje: a HBM2. A nagy sávszélességű memória vagy a HBM a memória kompakt és nagy sebességű formája, és a HBM2-t gyakran használják GPU-khoz szupergyorsként. A VRAM, de a csúcskategóriás Sapphire Rapids CPU-k (amelyeket hivatalosan Intel Maxnek hívnak) 64 GB-ot használnak ebből a memóriából egyfajta L4-ként gyorsítótár. Az AMD vadonatúj Az Epyc Genoa chipek nem tartalmaznak HBM2-t mert a cég úgy gondolja, hogy erre egyszerűen nincs szükség, de az Intel nem ért egyet, és idővel meglátjuk, kinek van igaza.
A Sapphire Rapids számos építészeti fejlesztést hoz, és az Intel azt állítja, hogy a 4. generációs Xeon átlagosan körülbelül 53%-kal gyorsabb. mint a 3. generációs Xeon Ice Lake az "általános célú számításokban", ami alapvetően olyan teljesítmény, mint a Cinebenchhez hasonló benchmarkban. Más alkalmazások nagyobb emelkedést tapasztalnak, két-tízszeresek. A legfontosabb talán az, hogy az Intel az Ice Lake hatékonyságának 2,9-szeresével büszkélkedhet, ami rendkívül fontos az adatközpontok teljes birtoklási költségének (vagy TCO-jának) csökkentése szempontjából. Ezenkívül a 4. generációs Xeon támogatja a DDR5 és PCIe 5.0, mindkettő rendkívül fontos a csúcskategóriás szerverek számára.
Bár a Sapphire Rapids minden bizonnyal nagy előrelépés a Xeon CPU-k számára, valószínűleg nem fogja uralni az adatközpontot. Az AMD nem pihent meg a babérjain, és legújabb Epyc Genoa CPU-i a TSMC 5 nm-es folyamatát és a Zen 4 architektúráját használják, akárcsak a Ryzen 7000. A csúcskategóriás Genoa 64 helyett 96 maggal rendelkezik, ami azt jelenti, hogy az Intel még mindig nagy hátrányban van. nem lenne meglepő, ha a Genoa is hatékonyabb lenne, mivel a TSMC 5 nm-e sokkal újabb, mint az Intel 10 nm.
Mellékesen megjegyzem, hogy az Intel nem jelentett be semmilyen Sapphire Rapids alapú munkaállomási Xeon CPU-t, de A pletykák szerint ezek később jönnek. Ezek a Xeon W chipek állítólag nem kínálják fel a Sapphire Rapids teljes 60 magját, és csak 56-ra teszik ki a maximumot, de még így is méltó versenytársnak bizonyulhatnak az AMD Ryzen Threadripper chipjei számára.
A birodalom visszavág?
Körülbelül három év telt el azóta, hogy az Intel utoljára előnyben volt az AMD-vel kapcsolatban, és most végre a cégnek lehetősége van egy ellentámadásra. Az Intel az adatközponti GPU-k terén is támadóvá válik a Ponte Vecchio-val, amelyet az Intel általánosan Data Center GPU Max sorozatnak nevezett el. Az Intel nem igazán közölt konkrét részleteket az általános teljesítményéről, de a GPU-ban több mint 100 milliárd tranzisztor található 47 csempén. Ez egy kétfrontos támadás az AMD ellen, amely nemrégiben jelentette be hatalmas MI300 szerver APU-játés bármely más adatközponti processzorral rendelkező vállalat.
Könnyű szkeptikusnak lenni az Intel esélyeivel kapcsolatban, tekintettel a cég közelmúltjára, és biztos vagyok benne, hogy a 4. generációs Xeon és Ponte Vecchio fogproblémák lesznek, de az AMD a majdnem csődbe jutottból a világ egyik vezető processzorává változtatta magát tervezők. Ha az AMD meg tudta csinálni, miért nem az Intel? Ez lehet az az ugródeszka, amely lehetővé teszi az Intel számára, hogy visszaszerezze teljesítménybeli vezető szerepét, talán nem ezzel a generációval, hanem a következővel.