Moores lov er offisielt død, og vi kan se det på førstehånd med en nylig TSMC-kunngjøring,
I desember, Wikichip rapporterte at TSMCs 3nm-prosess praktisk talt ikke viste noen forbedring i tetthet i forhold til selskapets forrige 5nm-node med hensyn til SRAM-tetthet. Publikasjonen stilte ett enkelt spørsmål: Var vi nettopp vitne til SRAMs død? I det minste etter Wikichips mening er "historisk skalering offisielt død."
Denne ideen har enorme konsekvenser for hele teknologiindustrien, og effektene vil merkes på PC-er og andre enheter i årene som kommer. Men du kan spørre deg selv hva alt dette betyr og om du bør bry deg. For å forstå hvordan «death of SRAM» vil påvirke PC-er og hvordan brikkedesignere vil håndtere det, må vi snakke om noder, Moores lov og cache.
Moores lov døde gradvis, og nå plutselig
Moores lov er halvlederindustriens målestokk for suksess og mener at nyere brikker bør ha dobbelt så mange transistorer enn brikker fra to år siden. Intel, AMD og andre brikkedesignere ønsker å sørge for at de holder tritt med Moores lov, og å ikke følge med betyr å miste den teknologiske fordelen for konkurrentene.
Siden prosessorer bare kan være så store, er den eneste pålitelige måten å øke transistortallet på å krympe dem og pakke dem tettere sammen. En node eller prosess er hvordan en halvlederprodusent (også kalt fabrikker og støperier) lager en brikke; en node er vanligvis definert av størrelsen på en transistor, så jo mindre jo bedre. Oppgradering til den nyeste produksjonsprosessen var alltid en pålitelig måte å øke transistorantall og ytelse, og i flere tiår har industrien vært i stand til å møte alle forventningene.
Dessverre har Moores lov vært døende i årevis nå, siden rundt 2010 da industrien nådde 32nm-merket. Da den forsøkte å gå videre, traff den en murvegg. Nesten alle fabrikker fra TSMC til Samsung til GlobalFoundries slet med å utvikle noe mindre enn 32nm. Etter hvert ble det utviklet nye teknologier som gjorde fremskritt mulig igjen, men transistorer blir ikke lenger mindre på samme måte som før. Navnet på en node gjenspeiler ikke lenger hvor liten transistoren faktisk er, og nye prosesser gir ikke lenger tetthetsøkningen de pleide.
Industrien traff en murvegg da den prøvde å gå lenger enn 32nm-merket i 2010.
Så hva skjer med TSMCs 3nm node? Vel, det er to hovedtyper transistorer som er i en typisk prosessor: de for logikk og de for SRAM, eller cache. Logikk har vært lettere å krympe enn cache på en stund (cachen er allerede veldig tett), men dette er første gang vi har sett et støperi som TSMC mislykkes i å krympe den i en ny node. En variant av 3nm med betydelig høyere cache-tetthet forventes på et tidspunkt, men TSMC treffer absolutt et bøyningspunkt der skaleringen er veldig liten, og andre fabs kan møte det samme problem.
Men problemet handler ikke bare om å ikke kunne øke mengden cache uten å bruke opp mer areal. Prosessorer kan bare være så store, og all plass som tas opp av cache er plass som ikke kan brukes til logikk, eller transistorene som fører til direkte ytelsesforbedringer. Samtidig trenger prosessorer med flere kjerner og andre funksjoner mer cache for å unngå minnerelaterte flaskehalser. Selv om tettheten av logikk fortsetter å øke med hver ny node, er det kanskje ikke nok til å kompensere for mangelen på SRAM-skalering. Dette kan være drapsstøtet for Moores lov.
Hvordan industrien kan løse SRAM-problemet
Det er tre mål som høyytelsesprosessorer må oppfylle: størrelsen er begrenset, hurtigbufferen kreves, og nye noder vil ikke lenger redusere størrelsen på hurtigbufferen mye om i det hele tatt. Selv om det er mulig å øke ytelsen via arkitektoniske forbedringer og høyere klokkehastigheter, legger du til flere transistorer har alltid vært den enkleste og mest konsistente måten å oppnå en generasjonshastighetsøkning på. For å overkomme denne utfordringen, må en av disse grunnleggende endringene.
Som det viser seg, er det allerede en perfekt fungerende løsning på SRAM-problemet: brikker. Det er teknologien som AMD har brukt siden 2019 for sine stasjonære og server-CPUer. En chiplet-design bruker flere stykker silisium (eller dies), og hver die har en eller bare noen få funksjoner; noen kan for eksempel bare ha kjerner. Dette er i motsetning til en monolitisk design der alt er i en enkelt matris.
Chiplets kommer rundt størrelsesproblemet, og de er en sentral del av hvorfor AMD har vært i stand til å holde tritt med Moores lov. Husk at Moores lov ikke handler om tetthet, men transistorantall. Med chiplet-teknologi har AMD vært i stand til å lage prosessorer med et totalt dyseareal på over 1000 mm2; Det er sannsynligvis umulig å produsere denne CPU-en i bare en enkelt dyse.
Det viktigste AMD har gjort som reduserer cache-problemet er å sette cache på sin egen die. V-cachen inne i Ryzen 7 5800X3D og minnebrikkene i RX 7000-serien er et eksempel på cache-brikker i aksjon. Det er sannsynlig at AMD så skriften på veggen siden cachen har vært vanskelig å krympe i mange år nå, og nå som cachen kan partisjoneres fra alt annet, gir det mer plass til større chiplets med flere kjerner. Hovedmatrisen til RX 7900 XTX er bare omtrent 300 mm2, noe som betyr at det er god plass for AMD å lage en større die hvis den vil.
Chiplets er imidlertid ikke den eneste måten. Nvidias administrerende direktør nylig proklamerte døden til Moores lov. Selskapet selv er avhengig av sin kunstige intelligens-teknologi for å oppnå større ytelse uten å måtte gå bort fra en monolitisk design. Den nyeste Ada-arkitekturen er teoretisk mange ganger raskere enn forrige generasjons Ampere takket være funksjoner som DLSS 3. Vi vil imidlertid se i årene som kommer om Moores lov må holdes i live eller om nye teknologier kan gjenspeile ytelsesfordelene ved å legge til flere transistorer uten faktisk å måtte legge til noen.