Jak śmierć SRAM wpłynie na przyszłość komputerów osobistych

Prawo Moore’a oficjalnie umarło i możemy to zobaczyć na własne oczy w niedawnym ogłoszeniu TSMC:

W grudniu, Wikichip zgłosił że proces 3 nm TSMC nie wykazał praktycznie żadnej poprawy gęstości w porównaniu z poprzednim węzłem 5 nm firmy pod względem gęstości SRAM. W publikacji zadano jedno proste pytanie: czy właśnie byliśmy świadkami śmierci SRAM? Przynajmniej w opinii Wikichipa „skalowanie historyczne oficjalnie umarło”.

Pomysł ten ma ogromne konsekwencje dla całej branży technologicznej, a jego skutki będą odczuwalne w komputerach stacjonarnych i innych urządzeniach przez wiele lat. Być może jednak zadajesz sobie pytanie, co to wszystko oznacza i czy powinno Cię to obchodzić. Aby zrozumieć, jak „śmierć SRAM” wpłynie na komputery PC i jak sobie z tym poradzą projektanci chipów, musimy porozmawiać o węzłach, prawie Moore’a i pamięci podręcznej.

Prawo Moore’a wymierało stopniowo, a teraz nagle

Prawo Moore'a jest wyznacznikiem sukcesu w branży półprzewodników i głosi, że nowsze chipy powinny zawierać dwukrotnie więcej tranzystorów niż chipy sprzed dwóch lat. Intel, AMD i inni projektanci chipów chcą mieć pewność, że dotrzymują kroku prawu Moore'a, a niedotrzymanie kroku oznacza utratę przewagi technologicznej na rzecz konkurencji.

Ponieważ procesory mogą być tylko tak duże, jedynym niezawodnym sposobem na zwiększenie liczby tranzystorów jest ich zmniejszenie i gęstsze upakowanie. Węzeł lub proces to sposób, w jaki producent półprzewodników (zwany także fabrykami i odlewniami) wytwarza chip; węzeł jest zwykle definiowany przez rozmiar tranzystora, więc im mniejszy, tym lepiej. Aktualizacja do najnowszego procesu produkcyjnego zawsze była niezawodnym sposobem na zwiększenie liczby i wydajności tranzystorów i od dziesięcioleci branża jest w stanie spełnić wszystkie oczekiwania.

Niestety, prawo Moore’a umiera już od lat, począwszy od około 2010 roku, kiedy przemysł osiągnął poziom 32 nm. Próbując jechać dalej, uderzył w ceglaną ścianę. Prawie każda fabryka, od TSMC, przez Samsunga, po GlobalFoundries, miała trudności z opracowaniem czegokolwiek mniejszego niż 32 nm. Ostatecznie opracowano nowe technologie, które ponownie umożliwiły postęp, ale tranzystory nie są już mniejsze w taki sam sposób, jak kiedyś. Nazwa węzła nie odzwierciedla już rzeczywistej wielkości tranzystora, a nowe procesy nie zapewniają już przyrostu gęstości, jaki osiągał wcześniej.

W 2010 roku, próbując przekroczyć granicę 32 nm, branża uderzyła w ceglany mur.

A co się dzieje z węzłem TSMC wykonanym w procesie technologicznym 3 nm? Cóż, istnieją dwa główne typy tranzystorów znajdujących się w typowym procesorze: te do logiki i te do SRAM, czyli pamięci podręcznej. Przez jakiś czas logikę łatwiej było zmniejszyć niż pamięć podręczną (pamięć podręczna jest już naprawdę gęsta), ale po raz pierwszy widzieliśmy, że odlewnia taka jak TSMC w ogóle nie zmniejszyła jej w nowym węźle. W pewnym momencie spodziewany jest wariant 3 nm ze znacznie większą gęstością pamięci podręcznej, ale TSMC z pewnością osiągnął punkt przegięcia, w którym skalowanie jest bardzo niewielkie, a inne fabryki mogą spotkać się z tym samym problem.

Ale problem nie polega tylko na tym, że nie można zwiększyć ilości pamięci podręcznej bez wykorzystania większego obszaru. Procesory mogą być tylko tak duże, a jakakolwiek przestrzeń zajmowana przez pamięć podręczną to przestrzeń, której nie można wykorzystać na logikę lub tranzystory, co prowadzi do bezpośredniego wzrostu wydajności. Jednocześnie procesory z większą liczbą rdzeni i innymi funkcjami potrzebują większej ilości pamięci podręcznej, aby uniknąć wąskich gardeł związanych z pamięcią. Mimo że gęstość logiki stale rośnie z każdym nowym węzłem, może nie wystarczyć, aby zrekompensować brak skalowania SRAM. To może być śmiertelny cios dla prawa Moore’a.

Jak przemysł może rozwiązać problem SRAM

Procesory o wysokiej wydajności muszą spełniać trzy cele: rozmiar jest ograniczony, wymagana jest pamięć podręczna, a nowe węzły nie będą już zmniejszać rozmiaru pamięci podręcznej w znacznym stopniu, jeśli w ogóle. Chociaż możliwe jest zwiększenie wydajności poprzez ulepszenia architektury i wyższe częstotliwości taktowania, dodanie większa liczba tranzystorów zawsze była najłatwiejszym i najbardziej spójnym sposobem na osiągnięcie generacyjnego zwiększenia prędkości. Aby stawić czoła temu wyzwaniu, jedna z tych podstaw musi się zmienić.

Jak się okazuje, istnieje już doskonale działające rozwiązanie problemu SRAM: chiplety. To technologia, którą AMD stosuje od 2019 roku w swoich procesorach do komputerów stacjonarnych i serwerów. Konstrukcja chipletu wykorzystuje wiele kawałków krzemu (lub matryc), a każda matryca ma jedną lub tylko kilka funkcji; niektóre mogą na przykład mieć po prostu rdzenie. Jest to sprzeczne z konstrukcją monolityczną, w której wszystko znajduje się w jednej matrycy.

Chiplety rozwiązują problem rozmiaru i odgrywają kluczową rolę w tym, dlaczego AMD jest w stanie dotrzymać kroku prawu Moore'a. Pamiętaj, że prawo Moore’a nie dotyczy gęstość, Ale liczba tranzystorów. Dzięki technologii chipletów firma AMD była w stanie stworzyć procesory o łącznej powierzchni matrycy przekraczającej 1000 mm2; wyprodukowanie tego procesora w jednej matrycy jest prawdopodobnie niemożliwe.

Najważniejszą rzeczą, jaką zrobiła AMD, a która łagodzi problem z pamięcią podręczną, jest umieszczenie pamięci podręcznej na własnej kości. V-Cache wewnątrz Ryzen 7 5800X3D i chiplety pamięci w Seria RX7000 są przykładem działających chipletów pamięci podręcznej. Jest prawdopodobne, że AMD dostrzegło napis na ścianie, ponieważ od lat trudno jest zmniejszyć pamięć podręczną, i teraz, gdy pamięć podręczną można oddzielić od wszystkiego innego, pozostaje więcej miejsca na większe chiplety z większą ilością rdzenie. Główna matryca RX 7900 XTX ma tylko około 300 mm2, co oznacza, że ​​AMD ma mnóstwo miejsca na wykonanie większej kości, jeśli chce.

Chiplets to jednak nie jedyny sposób. Niedawno dyrektor generalny Nvidii ogłosił śmierć prawa Moore’a. Sama firma opiera się na technologii sztucznej inteligencji, aby osiągnąć większą wydajność bez konieczności odchodzenia od monolitycznego projektu. Najnowsza architektura Ada jest teoretycznie wielokrotnie szybsza niż Ampere poprzedniej generacji dzięki funkcjom takim jak DLSS 3. Jednakże w nadchodzących latach przekonamy się, czy prawo Moore'a będzie musiało zostać utrzymane lub czy nowe technologie będą w stanie odzwierciedlić korzyści w zakresie wydajności wynikające z dodania większej liczby tranzystorów bez konieczności ich dodawania.