Hva er en prosessnode?

Selskaper som AMD og Nvidia elsker å skryte av hvilken prosessnode brikkene deres er på, men hva betyr det egentlig? Her er det du trenger å vite.

Hvis du noen gang har sett på spesifikasjonsarket eller en annonse for en CPU, GPU eller til og med en fullbygget enhet som en bærbar eller stasjonær, har du sannsynligvis sett hype rundt hvordan den bruker en 7nm eller 5nm, eller til og med 4nm prosess, node eller prosess node. Men som mange tekniske spesifikasjoner, er prosessnoden mye mer komplisert enn et enkelt tall, sjelden forklart av markedsføring, og ikke noe du faktisk trenger å bry deg for mye om. Her er alt du trenger å vite om prosessnoder, hva de faktisk betyr for databrikker.

Prosessnoder: en stor grunn til at prosessorer blir raskere hvert år uten feil

Kilde: XDA-Developers

Prosessnoder har alt å gjøre med brikkeproduksjon, også kalt fabrikasjon eller "fabbing", som foregår i anlegg kjent som fabs eller støperier. Selv om praktisk talt alle brikker er laget av silisium, er det forskjellige produksjonsprosesser som støperier kan bruke, og det er her vi får begrepet prosess. Prosessorer består av mange transistorer, og jo flere transistorer, jo bedre, men siden brikker bare kan være det stor, å pakke flere transistorer inn i en brikke ved å redusere avstanden mellom transistorer for å øke tettheten er en stor avtale. Oppfinnelsen av nyere og bedre prosesser eller noder er den primære måten å oppnå større tetthet på.

Ulike prosesser eller noder er differensiert med en lengde som historisk har blitt målt i mikrometer og nanometer, og jo lavere tall, jo bedre er prosessen (tenk golfregler). Dette tallet pleide å referere til de fysiske dimensjonene til en transistor, som produsenter ønsker å krympe når de oppretter en ny prosess, men etter 28nm-noden ble dette tallet vilkårlig. TSMCs 5nm-node er faktisk ikke 5nm, TSMC vil bare at du skal vite at den er bedre enn 7nm og ikke så god som 3nm. Av samme grunn kan det tallet ikke brukes til å sammenligne moderne prosesser; TSMCs 5nm er totalt forskjellig fra Samsungs 5nm, og selv når det gjelder TSMCs N4-prosess, er det anses som en del av TSMCs 5nm-familie. Forvirrende, jeg vet.

Nye prosesser øker ikke bare tettheten, men de har også en tendens til å øke klokkehastigheten og effektiviteten. For eksempel, TSCMs 5nm node (brukt i Ryzen 7000 og RX 7000 prosessorer) sammenlignet med den eldre 7nm-prosessen kan gi enten 15 % høyere klokkehastighet ved samme effekt eller 30 % lavere effekt ved samme frekvens, eller en kombinasjon av de to på en glidende skala. Frekvens- og effektivitetsgevinster pleide å være mye mer dramatiske frem til midten av 2000-tallet, som krympende transistorer reduserte strømforbruket direkte i eldre prosesser, en trend kalt Dennard skalering.

Moores lovs død og hvilke prosessnoder har med det å gjøre

Kilde: Intel

Hovedmotivasjonen for bedrifter til å bruke nyere prosesser er å holde tritt med noe som kalles Moores lov, en observasjon gjort av den legendariske halvlederfiguren Gordon Moore i 1965. Den opprinnelige loven sa at veksthastigheten for transistorer i den raskeste CPU-en dobles hvert annet år; hvis den raskeste prosessoren på ett år har 500 millioner transistorer, bør det om to år være en som har en milliard transistorer. I over 40 år var industrien i stand til å holde dette tempoet ved å finne opp nye prosesser, hver med høyere tetthet enn den forrige.

Imidlertid begynte industrien å treffe problemer på 2000-tallet. Først kollapset Dennard-skaleringen rundt 65nm til 45nm-merket på midten av 2000-tallet, men etter at 32nm-prosessen kom ut på slutten av 2000-tallet og begynnelsen av 2010-tallet, brøt helvete løs. For de fleste støperier var dette den siste store noden de ville levere på flere år. TSCMs 20nm fra 2014 var rett og slett dårlig, og bare 16nm-prosessen i 2015 var en verdig oppgradering fra 28nm i 2011, Samsung gjorde ikke komme til 14nm frem til 2015, og GlobalFoundries (spunnet av fra AMDs fabrikker på 2000-tallet) måtte lease Samsungs 14nm i stedet for å gjøre sin egen.

Et bemerkelsesverdig unntak fra denne uroen var Intel, som med suksess fikk sin 22nm-prosess ut av døren i 2011. Intels utgivelsesplan og prosesskvalitet begynte imidlertid å glippe etter 22nm-merket. 14nm-prosessen skulle komme ut i 2013, men ble utgitt i 2014 med lave klokkehastigheter og høye nivåer av defekter. Intels latterlige mål med sin 10nm-node dømte den til slutt til utviklingshelvete, og savnet lanseringsvinduet for 2015. Den første 10nm-brikken kom i 2018, og det er en av Intels verste CPUer noensinne. Intels 10nm, omdøpt til Intel 7 for markedsføringsformål, var ikke helt klar før i 2021.

Den siste katastrofen gjelder TSMCs 3nm-node, som gir en betydelig forbedring av tettheten i logiske transistorer (som er det som blant annet utgjør kjerner i CPUer og GPUer), men bokstavelig talt ingen forbedring av tettheten i cache, også kjent som SRAM. Å ikke være i stand til å krympe cache er en total katastrofe, og det er mulig støperier kan støte på lignende problemer på fremtidige noder. Selv om TSMC er den eneste fabrikken som sliter med å krympe cachen, er den også den største brikkeprodusenten på planeten.

Når du leser om døden til Moores lov, er dette hva det betyr, for hvis selskaper ikke kan øke tettheten år etter år, kan ikke transistortallet gå opp. Hvis transistortallet ikke kan stige, betyr det at Moores lov er død. I dag er selskaper fokusert på å følge med på ytelsesimplikasjonene av Moores lov, snarere enn de tekniske. Hvis ytelsen dobles hvert annet år, er alt bra. AMD og Intel bruker brikker for å øke både transistorantall og ytelse samtidig som kostnadene reduseres, og Nvidia er utelukkende avhengig av AI for å ta opp slakk.

Til syvende og sist er prosessnoder bare én faktor for om en brikke er god

Med tanke på at en ny prosess kan gjøre en brikke mindre, gi den en klokkehastighetsøkning og gjøre den mer effektivt, uten å gjøre noen store endringer i design eller arkitektur, er det åpenbart hvorfor prosesser er slik viktig. Imidlertid blir andre faktorer som emballasje (som brikker eller fliser eller stabling av brikker) og AI stadig mer levedyktige måter å gi verdi til en prosessor ved å øke ytelsen eller legge til funksjoner, for ikke å snakke om enkel optimalisering i programvare. Moores lovs død er unideell, men det er ikke slutten på halvlederindustrien.

I tillegg, fordi noder er navngitt av markedsføringsmessige årsaker, er det ingen reell grunn til å estimere en brikkes kompetanse utelukkende basert på prosessen; for eksempel er Intels 10nm faktisk omtrent like god som TSMCs 7nm til tross for at 7 er mindre enn 10. Det er imidlertid også sant at en prosess ikke er den eneste funksjonen som betyr noe i en prosessor. Mange prosessorer, GPUer og andre prosessorer har vært dårlige til tross for at de er på gode noder, som AMDs Radeon VII, som var en full prosessnode foran Nvidias RTX 2080 Ti og likevel var så treg at den var en av de verste GPUene noensinne.

I seg selv betyr ikke prosessnoden til en brikke noe. Det ville vært som å kjøpe en CPU utelukkende basert på hvor mange kjerner den har, eller en konsoll fordi den har blast-behandling. Det som virkelig betyr noe i en prosessor er dens faktiske ytelse, som kommer ned til andre maskinvarespesifikasjoner og hvor godt optimaliserte applikasjoner er for den maskinvaren. Hvis du bare vil vite hva beste CPU eller GPU eller laptop er, prosessnoden vil ikke fortelle deg det. Den forteller deg bare hvem som har laget brikken.