Hur döden av SRAM kommer att påverka framtiden för datorer

Moores lag är officiellt död, och vi kan se det från första hand med ett nyligen TSMC-meddelande,

I december, Wikichip rapporterade att TSMC: s 3nm-process praktiskt taget inte visade någon förbättring i densitet jämfört med företagets tidigare 5nm-nod med avseende på SRAM-densitet. Publikationen ställde en enkel fråga: Bevittnade vi just SRAMs död? Åtminstone enligt Wikichips åsikt är "historisk skalning officiellt död."

Den här idén har enorma konsekvenser för hela teknikindustrin, och dess effekter kommer att märkas i datorer och andra enheter i många år framöver. Men du kanske frågar dig själv vad allt detta betyder och om du borde bry dig. För att förstå hur "SRAMs död" kommer att påverka datorer och hur chipdesigners kommer att hantera det, måste vi prata om noder, Moores lag och cache.

Moores lag höll på att dö gradvis, och nu plötsligt

Moores lag är halvledarindustrins riktmärke för framgång och menar att nyare chips borde ha dubbelt så många transistorer än chips från två år sedan. Intel, AMD och andra chipdesigners vill se till att de håller jämna steg med Moores lag, och att misslyckas med att hänga med innebär att de förlorar den tekniska fördelen för konkurrenterna.

Eftersom processorer bara kan vara så stora är det enda pålitliga sättet att öka antalet transistorer att krympa dem och packa dem tätare. En nod eller process är hur en halvledartillverkare (även kallade fabs och gjuterier) gör ett chip; en nod definieras vanligtvis av storleken på en transistor, så ju mindre desto bättre. Att uppgradera till den senaste tillverkningsprocessen var alltid ett tillförlitligt sätt att öka antalet transistorer och prestanda, och i årtionden har industrin kunnat uppfylla alla förväntningar.

Tyvärr har Moores lag dött i flera år nu, sedan omkring 2010 när industrin nådde 32nm-strecket. När den försökte gå vidare träffade den en tegelvägg. Nästan varje fab från TSMC till Samsung till GlobalFoundries kämpade för att utveckla något mindre än 32nm. Så småningom utvecklades ny teknik som gjorde framsteg möjliga igen, men transistorer blir inte längre mindre på samma sätt som de brukade göra. Namnet på en nod återspeglar inte längre hur liten transistorn faktiskt är, och nya processer ger inte längre den densitetsökning som de brukade.

Branschen träffade en tegelvägg när den försökte gå längre än 32nm-strecket 2010.

Så vad är det med TSMC: s 3nm-nod? Tja, det finns två huvudtyper av transistorer som finns i en typisk processor: de för logik och de för SRAM, eller cache. Logik har varit lättare att krympa än cache ett tag (cachen är redan riktigt tät), men det här är första gången vi har sett ett gjuteri som TSMC misslyckas med att krympa det alls i en ny nod. En variant av 3nm med betydligt högre cache-densitet förväntas någon gång, men TSMC träffar verkligen en böjningspunkt där skalningen är mycket liten, och andra fabs kan stöta på detsamma problem.

Men problemet handlar inte bara om att inte kunna öka mängden cache utan att använda mer yta. Processorer kan bara vara så stora, och allt utrymme som tas upp av cache är utrymme som inte kan användas för logik, eller de transistorer som leder till direkta prestandavinster. Samtidigt behöver processorer med fler kärnor och andra funktioner mer cache för att undvika minnesrelaterade flaskhalsar. Även om densiteten av logik fortsätter att öka med varje ny nod, kanske det inte räcker för att kompensera för bristen på SRAM-skalning. Detta kan vara dödsslaget för Moores lag.

Hur branschen kan lösa SRAM-problemet

Det finns tre mål som högpresterande processorer måste uppfylla: storleken är begränsad, cache krävs och nya noder kommer inte längre att minska storleken på cachen mycket om alls. Även om det är möjligt att öka prestandan via arkitektoniska förbättringar och högre klockhastigheter, lägga till fler transistorer har alltid varit det enklaste och mest konsekventa sättet att uppnå en generationshastighetsökning. För att övervinna denna utmaning måste en av dessa grunder förändras.

Som det visar sig finns det redan en perfekt fungerande lösning på SRAM-problemet: chiplets. Det är den teknik som AMD har använt sedan 2019 för sina stationära och server-processorer. En chiplet-design använder flera bitar av kisel (eller stansar), och varje stans har en eller bara några funktioner; vissa kanske bara har kärnor till exempel. Detta är i motsats till en monolitisk design där allt är i en enda form.

Chiplets kommer runt storleksproblemet, och de är en viktig del av varför AMD har kunnat hålla jämna steg med Moores lag. Kom ihåg att Moores lag inte handlar om densitet, men transistorantal. Med chiplet-teknologi har AMD kunnat skapa processorer med en total stansarea på över 1 000 mm2; att tillverka denna CPU i bara en enda stans är förmodligen omöjligt.

Det enskilt viktigaste som AMD har gjort som mildrar cacheproblemet är att lägga cache på sin egen tärning. V-cachen inuti Ryzen 7 5800X3D och minneschiplets i RX 7000-serien är ett exempel på cache-chiplets i aktion. Det är troligt att AMD såg skriften på väggen eftersom cachen har varit svår att krympa i flera år nu, och nu när cachen kan partitioneras från allt annat lämnar det mer utrymme för större chiplets med fler kärnor. RX 7900 XTX: s huvudmatris är bara cirka 300 mm2, vilket betyder att det finns gott om utrymme för AMD att göra en större die om den vill.

Chiplets är dock inte det enda sättet. Nvidias vd nyligen utropade Moores lags död. Företaget självt förlitar sig på sin artificiella intelligensteknologi för att uppnå bättre prestanda utan att behöva gå bort från en monolitisk design. Dess senaste Ada-arkitektur är teoretiskt många gånger snabbare än förra generationens Ampere tack vare funktioner som DLSS 3. Vi kommer dock att se under de kommande åren om Moores lag måste hållas vid liv eller om ny teknik kan spegla prestandafördelarna med att lägga till fler transistorer utan att faktiskt behöva lägga till några.