Mi az a folyamatcsomópont?

Az olyan cégek, mint az AMD és az Nvidia, szeretnek dicsekedni azzal, hogy melyik folyamatcsomóponton vannak a chipjeik, de mit is jelent ez? Íme, amit tudnod kell.

Ha valaha is megnézte a specifikációt vagy egy CPU, GPU vagy akár egy teljesen felépített eszköz, mint pl. laptop vagy asztali számítógép, valószínűleg láttál már felhajtást arról, hogyan használ 7 nm-es vagy 5 nm-es, vagy akár 4 nm-es folyamatot, csomópontot vagy folyamatot csomópont. De sok műszaki specifikációhoz hasonlóan a folyamatcsomópont sokkal bonyolultabb, mint egy egyszerű szám, amelyet ritkán magyaráz meg a marketing, és nem olyasmi, amivel valójában túl sokat kell törődni. Itt van minden, amit tudnia kell a folyamatcsomópontokról, és mit jelentenek valójában a számítógépes chipek számára.

Folyamatcsomópontok: egy nagy oka annak, hogy a processzorok minden évben hiba nélkül gyorsabbak lesznek

Forrás: XDA-Developers

A folyamatcsomópontoknak mindene köze van a forgácsgyártáshoz, amelyet gyártásnak vagy "fabbingnak" is neveznek, amely a fab-ként vagy öntödékként ismert létesítményekben zajlik. Bár gyakorlatilag minden chipet szilíciumból készítenek, az öntödék különböző gyártási eljárásokat alkalmazhatnak, és itt kapjuk a folyamat kifejezést. A processzorok sok tranzisztorból állnak, és minél több tranzisztor, annál jobb, de mivel a chipek csak ilyenek lehetnek nagy, több tranzisztor becsomagolása egy chipbe a tranzisztorok közötti tér csökkentésével a sűrűség növelése érdekében üzlet. Újabb és jobb eljárások vagy csomópontok feltalálása a nagyobb sűrűség elérésének elsődleges módja.

A különböző folyamatokat vagy csomópontokat a történelemben mikrométerben és nanométerben mért hosszúság különbözteti meg, és minél kisebb ez a szám, annál jobb a folyamat (gondoljunk csak a golfszabályokra). Ez a szám korábban egy tranzisztor fizikai méreteire utalt, amelyeket a gyártók egy új folyamat létrehozásakor le akartak csökkenteni, de a 28 nm-es csomópont után ez a szám önkényessé vált. A TSMC 5 nm-es csomópontja valójában nem 5 nm, a TSMC csak azt akarja, hogy tudd, jobb, mint 7 nm, és nem olyan jó, mint 3 nm. Ugyanezen okból ez a szám nem használható a modern folyamatok összehasonlítására; A TSMC 5 nm-e teljesen eltér a Samsung 5 nm-étől, és még a TSMC N4 folyamata esetén is a TSMC 5nm-es családjának része. Zavarba ejtő, tudom.

Az új eljárások nemcsak a sűrűséget növelik, hanem az órajelet és a hatékonyságot is növelik. Például a TSCM 5 nm-es csomópontja (használt: Ryzen 7000 és RX 7000 processzorok) a régebbi, 7 nm-es eljáráshoz képest vagy 15%-kal magasabb órajelet biztosítanak azonos teljesítmény mellett, vagy 30%-kal alacsonyabb teljesítményt ugyanazon a frekvencián, vagy a kettő kombinációját egy csúszó skálán. A frekvencia- és hatékonyságnövekedés azonban a 2000-es évek közepéig sokkal drámaibb volt. a zsugorodó tranzisztorok közvetlenül csökkentették az energiafogyasztást a régebbi folyamatokban, ezt a tendenciát Dennardnak hívják méretezés.

A Moore-törvény halála és a folyamatcsomópontok köze hozzá

Forrás: Intel

A vállalatok számára az újabb folyamatok használatának fő motivációja az, hogy lépést tartsanak a Moore-törvénynek nevezett dologgal, amelyet a legendás félvezető alak, Gordon Moore tett 1965-ben. Az eredeti törvény kimondta, hogy a tranzisztorok növekedési üteme a leggyorsabb CPU-ban kétévente megduplázódik; ha a leggyorsabb processzor egy év alatt 500 millió tranzisztorral rendelkezik, akkor két év múlva legyen olyan, aminek milliárd tranzisztorja van. Az ipar több mint 40 éven keresztül képes volt tartani ezt a tempót új eljárások feltalálásával, amelyek mindegyike nagyobb sűrűséggel, mint az előző.

Az iparág azonban a 2000-es években kezdett elakadni. Először a Dennard-skálázás a 65 nm-től 45 nm-ig omlott össze a 2000-es évek közepén, de miután a 32 nm-es eljárás a 2000-es évek végén és a 2010-es évek elején megjelent, minden pokol elszabadult. A legtöbb öntöde számára ez volt az utolsó jelentős csomópont, amelyet évekig szállítottak. A TSCM 2014-es 20 nm-je egyszerűen rossz volt, és csak a 2015-ös 16 nm-es eljárás volt érdemes továbbfejleszteni a 2011-es 28 nm-hez képest, a Samsung nem 2015-ig elérte a 14 nm-t, és a GlobalFoundries-nek (amelyet a 2000-es években az AMD gyártóitól bontottak ki) inkább bérelnie kellett a Samsung 14 nm-ét, mintsem saját.

Ez alól az egyik figyelemre méltó kivétel az Intel volt, amely 2011-ben sikeresen kiadta a 22 nm-es folyamatát. Az Intel megjelenési ütemezése és a folyamat minősége azonban a 22 nm-es küszöb után kezdett csúszni. A 14 nm-es eljárásnak 2013-ban kellett volna megjelennie, de 2014-ben adták ki alacsony órajellel és sok hibával. Az Intel nevetséges céljai a 10 nm-es csomóponttal végül a fejlesztési pokolra ítélték, mivel elmaradt a 2015-ös indítóablak. Az első 10 nm-es chip 2018-ban érkezett, és ez az Intel egyik legrosszabb CPU-ja. Az Intel 10 nm-e, amelyet marketing okokból Intel 7-re kereszteltek át, csak 2021-re készült el teljesen.

A legutóbbi katasztrófa a TSMC 3 nm-es csomópontját érinti, amely jelentősen javítja a logikai tranzisztorok sűrűségét (többek között ezek alkotják a CPU-k és GPU-k magjait), de szó szerint semmiféle javulást nem jelent a sűrűség terén gyorsítótár, más néven SRAM. A gyorsítótár kicsinyítésének hiánya teljes katasztrófa, és elképzelhető, hogy az öntödék hasonló problémákba ütköznek a jövőbeli csomópontokon. Még ha a TSMC az egyetlen mester, amely a gyorsítótár csökkentésével küzd, egyben a legnagyobb chipgyártó is a bolygón.

Amikor a Moore-törvény haláláról olvasol, ez ezt jelenti, mert ha a vállalatok nem tudják évről évre növelni a sűrűséget, a tranzisztorok száma nem emelkedhet. Ha a tranzisztorok száma nem tud emelkedni, az azt jelenti, hogy a Moore-törvény halott. Manapság a vállalatok a Moore-törvény teljesítménykövetkezményeinek követésére összpontosítanak, nem pedig a technikai vonatkozásokra. Ha a teljesítmény kétévente megduplázódik, akkor minden rendben van. Az AMD és az Intel chipleteket használ a tranzisztorok számának és teljesítményének növelésére, miközben csökkenti a költségeket, az Nvidia pedig kizárólag a mesterséges intelligenciára támaszkodik, hogy felvegye a lazaságot.

Végső soron a folyamatcsomópontok csak egy tényezőt jelentenek abban, hogy egy chip jó-e

Figyelembe véve, hogy egy új eljárással egy chipet kisebb lehet, órajelet növelhet, és még több is lehet hatékony, mindezt anélkül, hogy jelentős változtatásokat kellene végrehajtani a tervezésben vagy az architektúrában, nyilvánvaló, hogy miért ilyenek a folyamatok fontos. Azonban más tényezők, például a csomagolás (például chipletek vagy csempék vagy chipek egymásra rakása) és a mesterséges intelligencia egyre életképesebbé válnak. hogyan adhat értéket a processzornak a teljesítmény növelésével vagy a funkciók hozzáadásával, nem is beszélve az egyszerű optimalizálásról szoftver. A Moore-törvény halála nem ideális, de ez nem jelenti a félvezetőipar végét.

Ezen túlmenően, mivel a csomópontokat marketing okokból nevezik el, nincs valódi ok arra, hogy egy chip kompetenciáját kizárólag a folyamata alapján becsüljük meg; Például az Intel 10 nm-e valójában körülbelül olyan jó, mint a TSMC 7 nm, annak ellenére, hogy a 7 kevesebb, mint 10. Ugyanakkor az is igaz, hogy a processzorban nem csak a folyamat számít. Számos CPU, GPU és más processzor rossz annak ellenére, hogy jó csomópontokon, például az AMD-n Radeon VII, amely egy teljes folyamatcsomópont volt az Nvidia RTX 2080 Ti előtt, és mégis olyan lassú volt, hogy az egyik legrosszabb GPU valaha.

Önmagában a chip folyamatcsomópontja nem jelent semmit. Ez olyan lenne, mintha egy CPU-t vásárolnánk pusztán az alapján, hogy hány magja van, vagy egy konzolt azért, mert blast feldolgozással rendelkezik. Ami igazán számít egy processzorban, az a tényleges teljesítménye, amely más hardverspecifikációktól függ, és attól, hogy az alkalmazások mennyire vannak optimalizálva az adott hardverhez. Ha csak azt szeretné tudni, hogy mi a legjobb CPU vagy GPU vagy laptop A folyamat csomópontja ezt nem fogja megmondani. Csak azt mondja meg, ki készítette a chipet.