Co się stało z grami z wieloma procesorami graficznymi?

Posiadanie dwóch lub więcej procesorów graficznych było kiedyś szczytem gier komputerowych, ale teraz to już przeszłość. Co się stało?

Do połowy 2010 roku najszybsze komputery do gier wykorzystywały wiele kart graficznych, zwykle dwie, ale czasem nawet cztery. Następnie niektóre z najlepsze karty graficzne do gier używał dwóch układów GPU zamiast jednego, co pomogło w konsolidacji. Technologie Nvidia SLI i AMD CrossFire multi-GPU były postrzegane jako szczytowe osiągnięcie każdego high-endowego komputera do gier i mogą przenieść Twoje wrażenia z gry na wyższy poziom.

Dziś multi-GPU to już przeszłość — praktycznie relikt w świecie komputerów. Fakt, że większość nowych procesorów graficznych obecnie nie obsługuje nawet SLI ani CrossFire, jest z pewnością problemem, ale popularność multi-GPU spadała na długo przed tym, jak Nvidia i AMD skutecznie je zaprzestały technologie. Oto historia gier z wieloma procesorami graficznymi i dlaczego nie przetrwały one próby czasu.

Krótka historia multi-GPU, od 3dfx do jego upadku

Podczas gdy nowoczesne karty graficzne pojawiły się na początku XXI wieku w wyniku rywalizacji między Nvidią i AMD, w latach 90. było znacznie więcej graczy. Jedną z takich firm była firma 3dfx Interactive, która wyprodukowała nostalgiczną linię kart graficznych Voodoo. Aby uzyskać przewagę konkurencyjną, firma zdecydowała, że ​​dwie karty graficzne mogą być lepsze niż jedna, iw 1998 roku wprowadziła technologię Scan-Line Interleave (SLI). To było całkiem genialne posunięcie ze strony 3dfx, ponieważ zachęciło do większej sprzedaży GPU i zniechęciło właścicieli Voodoo do przejścia na inną kartę.

Jednak SLI zostało wprowadzone dokładnie wtedy, gdy 3dfx zmierzało ku bankructwu, a firma została ostatecznie przejęta przez Nvidię, która uzyskała prawa własności intelektualnej do wszystkiego, co posiadał 3dfx. Multi-GPU na krótko przestało istnieć po przejęciu 3dfx, ale Nvidia ponownie wprowadziła SLI (zmieniając oficjalną nazwę na Scalable Link Interface) w 2004 roku wraz ze swoją serią GeForce 6. Zasadniczo działało to tak samo, jak wcześniej: dodaj więcej procesorów graficznych, uzyskaj większą wydajność. Ale było kilka innowacji w podejściu Nvidii.

Podczas gdy stary SLI 3dfx miał każdy GPU renderujący linię pikseli pojedynczo („linia skanowania” w SLI), Nvidia's nowy SLI wprowadził dwie nowe metody renderowania: renderowanie z podziałem klatki (SFR) i renderowanie z alternatywną ramką (AFR). Dzięki SFR każdy GPU renderuje część pojedynczej klatki, nie dzieląc klatki na środku, ale dając każdemu GPU równie intensywny fragment do renderowania. Z drugiej strony AFR każe każdemu GPU po kolei wytwarzać ramkę. Podczas gdy SFR świetnie nadaje się do zmniejszania opóźnień, AFR ma tendencję do uzyskiwania największej wydajności, aczkolwiek ze znacznie gorszym tempem klatek i zacinaniem się.

Podobnie w 2005 roku ATI (wkrótce przejęte przez AMD) wprowadziło własną technologię wielu procesorów graficznych, zwaną CrossFire, ale na początku było to trochę bałaganem. W przypadku kart 3dfx i Nvidia wystarczyły dwa takie same procesory graficzne oraz kabel lub mostek do połączenia je, ale CrossFire wymagał od ciebie zakupu specjalnej karty „master” oprócz zwykłej grafiki karta. Następnie, zamiast używać mostka, użyłeś dziwnego kabla DVI, który był podłączony do obu kart. Dość powiedzieć, że pierwsza generacja CrossFire była słabo wykonana. Nie pomogło to, że w tamtym czasie jego procesory graficzne nie były niesamowite.

Ale CrossFire naprawdę sprawdził się wraz z wprowadzeniem AMD (dawniej ATI) Radeon 3000 serii, która zawierała Radeon HD 3870 X2, pierwszą na świecie kartę graficzną z dwoma układami GPU To. AMD poszło naprawdę daleko z tą całą koncepcją dwóch GPU; jego chipy z serii Radeon 4000 i 5000 były w rzeczywistości dość małe, więc karty graficzne z dwoma procesorami graficznymi miały dużo sensu. HD 5970 w 2009 roku, jeden z najlepszych procesorów graficznych AMD wszechczasów, był często opisywany jako zbyt szybki, aby był wykonalny. Następnie Nvidia zaczęła również tworzyć własne karty z dwoma procesorami graficznymi.

Jednak po tym momencie popularność multi-GPU zaczęła spadać. Nvidia porzuciła koncepcję podwójnego GPU dla swoich głównych procesorów graficznych po GTX 690 w 2012 roku i całkowicie porzuciła ją po GTX Titan Z w 2014 roku. Nvidia uczyniła SLI ekskluzywnym zaledwie dwa lata później dla swoich procesorów graficznych GTX 1070, 1080 i 1080 Ti, a także zmniejszyła obsługę czterech kart graficznych do dwóch. Po tym SLI było podtrzymywane przy życiu, ale ostatecznie zostało zlikwidowane w 2020 roku wraz z wprowadzeniem serii RTX 30, z których tylko 3090 obsługiwał SLI. Ale to nie miało znaczenia, ponieważ Nvidia zaprzestała obsługi sterowników SLI od 2021 roku.

Tymczasem AMD przez lata produkowało karty z dwoma procesorami graficznymi, zatrzymując się dopiero na Pro Vega II w 2019 roku, która była ekskluzywną kartą Apple Mac. AMD powiedział nawet, że dwa RX 480 w CrossFire były dobrą alternatywą dla GTX 1080 Nvidii w 2016 roku. Jednak AMD ostatecznie zrezygnowało z CrossFire po premierze RX Vega w 2017 roku, która była ostatnią kartą AMD obsługującą tę technologię. Wygląda na to, że AMD przestało również tworzyć sterowniki z obsługą CrossFire dla poszczególnych gier w 2017 roku.

Wiele powodów, dla których wymarło multi-GPU

Gry z wieloma procesorami graficznymi pojawiały się i znikały dość szybko, biorąc pod uwagę wszystkie czynniki. Była to znacząca siła dopiero po 2004 roku z SLI i CrossFire, ale do 2010 roku już spadała. Ostatecznie to kierunek, w jakim zmierza branża graficzna i to, w jaki sposób gracze uznali rozwiązania z pojedynczym procesorem graficznym o wiele bardziej atrakcyjnymi, zadzwonił po dzwonek śmierci.

Procesory graficzne stawały się coraz większe z każdą generacją i ostatecznie przerosły multi-GPU

Kiedy 3dfx wprowadził SLI, karty graficzne były małymi urządzeniami o naprawdę niskim poborze mocy, w niczym nie przypominającymi gigantów, które widzimy dzisiaj. W latach 90. i na początku 2000 r. chipy graficzne miały zwykle rozmiar około 100 mm2, ale wszystko się zmieniło, gdy firma ATI wprowadziła na rynek Seria Radeon 9000, która zawierała układ o powierzchni ponad 200 mm2, dwukrotnie większa niż wszystko, co świat widział wcześniej. To zapoczątkowało wyścig zbrojeń GPU, który ATI/AMD i Nvidia eskalowały z każdą generacją.

Chodzi o to, że większe chipy wymagają większej mocy i lepszego chłodzenia, i chociaż zwiększony pobór mocy początkowo nie miał tak naprawdę wpływu na konfiguracje z wieloma procesorami graficznymi, ostatecznie okazał się poważnym problemem. Już w GTX 480 karty graficzne osiągnęły poziom 250 W, a dwie karty 480 w trybie SLI zużywały niewiarygodną ilość energii. Podczas gdy AMD kładło duży nacisk na multi-GPU w swoich seriach HD 4000 i 5000, tak naprawdę było tak tylko dlatego, że potrzebował czegoś z wyższej półki, aby przeciwstawić się 480 i 580 Nvidii, ponieważ układy graficzne AMD były zbyt średnie.

Od końca 2000 roku prawie każdy flagowiec wyprodukowany przez Nvidię i AMD zużywał co najmniej 200 W, często 250 W. To może nie być przypadek, że ostatnia karta Nvidii z dwoma procesorami graficznymi głównego nurtu, 690, wykorzystywała dwa układy GTX 680, które miały TDP tylko 195 W. Prosty fakt, że pojedyncze procesory graficzne stawały się coraz większe i lepsze, utrudniał SLI i CrossFire mniej atrakcyjne dla użytkowników, którzy zwykle nie chcieli, aby ich komputer do gier był jednocześnie grzejnikiem i odrzutowcem silnik.

Multi-GPU było wadliwe i wymagało od deweloperów, Nvidii i AMD zainwestowania w to zasobów

Trendy sprzętowe stanowiły problem dla wykonalności wielu procesorów graficznych, podobnie jak trendy w oprogramowaniu. Kiedy po raz pierwszy wprowadzono SLI, gry były znacznie prostsze, a nawet najlepsze gry z 2004 roku, takie jak Pół życia 2, są raczej niczym się nie wyróżniające w porównaniu z dzisiejszymi grami, chociaż możemy docenić, jak wspaniałe były, kiedy się ukazały. SLI i CrossFire wymagały od Nvidii i AMD stworzenia specjalnych optymalizacji dla wielu procesorów graficznych w swoich sterownikach, aby osiągnąć dobrą wydajność, a wtedy nie było to wielkim problemem.

Ale z biegiem czasu gry (a co za tym idzie, procesory graficzne) stawały się coraz bardziej skomplikowane, a ich optymalizacja stawała się coraz trudniejsza z każdym rokiem. Nawet w tytułach, które oficjalnie wspierały multi-GPU, doświadczenie było często poniżej normy z powodu gorszej niż zwykle wydajności lub błędów. Przez krótki czas w 2016 roku miałem dwa Radeony R9 380 i kiedy grałem Wiedźmin 3, Często widziałem dziwne usterki graficzne, które czasami nawet zakrywały ważne funkcje, takie jak wejścia do jaskiń, przez co gra była nie tylko dziwaczna, ale zawierała błędy do tego stopnia, że ​​​​nie można było w nią grać.

Ostatecznie to kierunek, w jakim zmierza branża graficzna i to, w jaki sposób gracze uznali rozwiązania z pojedynczym procesorem graficznym o wiele bardziej atrakcyjnymi, zadzwonił po dzwonek śmierci.

Jedynym promykiem nadziei na lepszą obsługę oprogramowania multi-GPU były DX12 i Vulkan, które chwaliły się tak potężna obsługa wielu procesorów graficznych, że można nawet używać wielu procesorów graficznych różnych dostawców w jednym gra. Jednak to po prostu przerzuciło pracę wykonywaną przez Nvidię i AMD w ręce programistów, którzy tego nie zrobili może zyskać wszystko, wspierając technologię multi-GPU, zwłaszcza że Nvidia i AMD ją fazowały na zewnątrz. Tak więc strona oprogramowania nie sprawdziła się również w grach z wieloma procesorami graficznymi.

Gracze po prostu nie potrzebowali zaawansowanych konfiguracji z wieloma procesorami graficznymi

Nawet jeśli sprawy po stronie sprzętu i oprogramowania się ułożyły, gry z wieloma procesorami graficznymi mogły być skazane na porażkę po prostu dlatego, że były przesadą. Nawet HD 5970 został opisany jako przesada, i to tylko z dwoma średniotonowymi układami GPU. Mimo to multi-GPU było na tyle popularne, że przetrwało lata, ale myślę, że o jego losie zadecydowało jedno wydarzenie: premiera GTX 1080 w 2016 roku.

Seria GTX 10 Nvidii była tak naprawdę tylko serią GTX 9 na zupełnie nowym 16 nm od TSMC, ale samo to było wielką sprawą, ponieważ Nvidia spędziła całe trzy pokolenia na 28 nm z powodu upadek prawa Moore'a. Przejście z 28 nm na 16 nm spowodowało, że GTX 1080 był o ponad 50% szybszy niż GTX 980 i 30% szybszy niż GTX 980 Ti. 1080 obsługiwał również SLI, a jego TDP było stosunkowo niskie na poziomie 180 W, ale surowa wydajność z pojedynczym 1080 była szalona w 2016.

Chociaż wydaje się, że granie na PC z wykorzystaniem wielu kart graficznych już nigdy nie wróci, drzwi dla multi-GPU są w rzeczywistości otwarte.

Zostało to dodatkowo ulepszone w następnym roku w GTX 1080 Ti, zwiększając wydajność o prawie kolejne 30%. Pojedynczy 1080Ti był prawie dwa razy szybszy niż 980 Ti i z pewnością byłby lepszym rozwiązaniem niż dwa 980 Ti w SLI. Nikt przy zdrowych zmysłach nie chciałby tak naprawdę dwóch 1080 Ti w SLI, nie tylko dlatego, że byłoby gorąco i głośno, ale także dlatego, że dwukrotna wydajność 1080 Ti byłaby kompletną przesadą (a także niewykonalna dla większości gier z oficjalnym SLI wsparcie). Wyobraź sobie, jak szalone byłoby mieć dwa RTX 4090 w trybie SLI.

Gry z wieloma procesorami graficznymi mogą powrócić

Chociaż wydaje się, że granie na PC z wykorzystaniem wielu kart graficznych już nigdy nie wróci, drzwi dla multi-GPU są w rzeczywistości otwarte. Jeśli znasz procesory AMD, wiesz, że ich układy do komputerów stacjonarnych z wyższej półki oraz wszystkie procesory do stacji roboczych i serwerów używają razem wielu układów procesora zamiast jednego dużego procesora. Używanie wielu mniejszych chipów (znanych również jako chiplety) to technologia, którą AMD zaczęło stosować w 2019 roku, chociaż dopiero w 2022 roku zaczął używać chipletów do swoich procesorów graficznych wraz z wprowadzeniem wysokiej klasy RX 7000 seria.

Karty RX 7000, takie jak RX 7900 XTX, mają jednak tylko wiele chipletów pamięci podręcznej i pamięci oraz używają jednego układu GPU. Mimo to istnieją powody, by sądzić, że AMD może zacząć używać wielu chipów graficznych, ponieważ zmniejszyłoby to ich wydajność kosztów rozwoju i produkcji, jednocześnie ułatwiając tworzenie nowych kart (wystarczy dodać lub usunąć chiplet i bam, nowy GPU). Intel może również pójść w tym samym kierunku, ponieważ również przechodzi na chiplety.

Chociaż wydaje się, że Nvidia nie jest zainteresowana chipletami, byłoby zaskakujące, gdyby AMD i Intel nie były zainteresowane przywróceniem multi-GPU z chipletami. Być może w nadchodzących latach zobaczymy powrót gier wieloprocesorowych z nowoczesną technologią, jeśli będzie działać wystarczająco dobrze.