Twoja następna modernizacja procesora graficznego może pozostać marzeniem dzięki fali sztucznej inteligencji

Sztuczna inteligencja napędza ogromne zapotrzebowanie na procesory graficzne dla serwerów. Jednak kilka utrzymujących się problemów może sprawić, że nawet procesory graficzne do gier będą trudne do znalezienia.

Jeśli jesteś graczem komputerowym, zawsze myślisz o modernizacji karty graficznej. Jesteś albo na skraju zakup nowej karty graficznej lub planujesz aktualizację w najbliższej przyszłości, ponieważ, nie oszukujmy się, procesory graficzne nie wytrzymują tak długo, jak kiedyś. Jesteś jednym z nielicznych szczęśliwców, którzy mogą zdobyć kartę obecnej generacji w rozsądnych cenach. Z drugiej strony, jeśli myślisz o aktualizacji, gdy spadną karty nowej generacji, możesz spotkać się z brutalnym przebudzeniem.

Wielki niedobór GPU spowodowany boomem kryptowalutowym w latach 2021–2022 do dziś prześladuje wielu graczy. Jeśli jednak nadejdzie fala sztucznej inteligencji, może na nas czekać kolejny niedobór procesora graficznego. Generatywna sztuczna inteligencja, duże modele językowe (LLM) i sieci neuronowe to terminy, które weszły do ​​powszechnej dyskusji, a firmy już podjęły kroki, aby wykorzystać boom na sztuczną inteligencję. Twoje marzenie o modernizacji karty graficznej może się właśnie spełnić.

Duże i małe przedsiębiorstwa gromadzą zapasy kart graficznych

Źródło: X (Twitter)

Z każdą rewolucyjną technologią pojawiają się tłumy graczy rywalizujących o większy kawałek przysłowiowego tortu. To już zaczęło się dziać w świecie sztucznej inteligencji, gdzie zarówno duzi gracze, jak i wschodzące start-upy robią wszystko, co w ich mocy mogą zdobyć procesory graficzne. Aby zasilać obciążenia AI, firmy potrzebują kart graficznych dla centrów danych, takich jak Nvidia HGX H100. Jednak ze względu na utrzymujące się problemy z dostawami i bezprecedensowy popyt na procesory graficzne zoptymalizowane pod kątem sztucznej inteligencji, według doniesień niektóre firmy kupują również karty graficzne do gier.

Raport Gartnera szacuje, że branża wyda w tym roku ponad 50 miliardów dolarów na chipy AI, a w ciągu najbliższych czterech lat dwukrotnie więcej. Ten zdumiewający wzrost może być pozytywnym sygnałem dla branży sztucznej inteligencji, ale uruchamia alarm dla graczy, którzy chcą kupić tylko jedną przyzwoitą, niedrogą kartę graficzną do swojego komputera osobistego. Jeśli problemy produkcyjne nie zostaną wkrótce rozwiązane, dostępność kart graficznych do gier może spaść w nadchodzącym roku będzie coraz gorzej, w związku ze wzrostem zapotrzebowania przedsiębiorstw i trudnością ze znalezieniem procesorów graficznych dla serwerów przez.

Nvidii nie zależy na graczach, tylko na zyskach

Źródło: Flickr

Nvidia kontroluje około 60–70% gwałtownie rosnącego zapotrzebowania na krzem zorientowany na sztuczną inteligencję. Wynika to z przewagi pierwszego gracza, doskonałej wydajności procesora graficznego i obsługi CUDA. Ponieważ firma zarabia około 10–11 miliardów dolarów w jednym kwartale na sprzedaży procesorów graficznych do centrów danych, dyrektor generalny Jensen Huang, co zrozumiałe, przesunął się ze strony biznesu związanej z grami. Słaba wartość kart graficznych RTX 4000 może być dopiero początkiem końca praktyk przyjaznych graczom ze strony Team Green.

Po słabym przyjęciu serii RTX 2000, kolejne karty RTX 3000 sprowadziły ceny z powrotem do rozsądnych poziomów, przynajmniej na papierze. Ale wprowadzenie karty klasy „90” z RTX 3090, a potem niebotycznie wysokie ceny RTX Seria 4000 potwierdziła nowe podejście Nvidii polegające na celowaniu tylko w wieloryby, a nie w średnią konsument. Cały marketing dotyczący przystępności cenowej i wartości zniknął i został zastąpiony hiperbolicznymi stwierdzeniami na temat luksusowych kart, takich jak RTX 4090, a nawet RTX 4080.

Źródło: Nvidia

Ludzie nie modernizują swoich kart graficznych tak często, jak to robili, ponieważ po prostu nie jest to już zrównoważone. Ogólnie rzecz biorąc, gry komputerowe stają się zdecydowanie za drogie, popychając do tego wiele osób kupuj konsole zamiast komputerów do gier. A flagowcem tej mrocznej ery jest branża kart graficznych, produkująca produkty, które nie radzą sobie wystarczająco, aby uzasadnić pobierane przez siebie opłaty. Ceny procesorów graficznych do gier nigdy już nie wrócą do normy, a Nvidia nawet się tym nie przejmuje.

AMD i inne firmy nie pozostają daleko w tyle w wyścigu zbrojeń AI

Jeśli miałeś nadzieję, że Nvidia jako jedyna zarabia siano, gdy świeci słońce, czeka cię kolejna rzecz. AMD, główny konkurent Nvidii w zakresie procesorów graficznych, również wzmaga wysiłki mające na celu ulepszenie swojej oferty AI, w szczególności procesora graficznego dla serwerów MI300X. Zestaw MI300X, który będzie konkurował z procesorem Nvidia H100 i procesorem Falcon Shores 2 firmy Intel, będzie wyjątkowy obciążeń związanych z wnioskowaniem, co oznacza, że ​​będzie on wyróżniał się w wyciąganiu wniosków z danych, zamiast po prostu szkolić LLM modele.

Microsoft tworzy niestandardowe procesory AI, a Google, Amazon i Meta używają w swoich serwerach AI kombinacji sprzętu niestandardowego i sprzętu Nvidia. Historycznie rzecz biorąc, karty graficzne AMD z serii RX nie były w stanie zmniejszyć dominacji Nvidii na rynku procesorów graficznych do gier ze względu na gorszą technologię śledzenia promieni i skalowania. Jednak nadal są to lepsze karty pod względem wydajności, wartości i pamięci VRAM. Jeśli AMD pójdzie drogą Nvidii, wraz z nadchodzącą generacją te zalety mogą zacząć zanikać.

Studia gier upadły

źródło: AMD

Doskonale znasz komicznie słabą wydajność portów komputerów PC w ostatnich latach. Tytuły wysokobudżetowe, np Pole Gwiazd, Dziedzictwo Hogwartu, Ostatni z nas, część 1i wiele innych, w chwili premiery były zepsute i nie dało się grać. Wygląda na to, że ostatnio studia gier przestały zawracać sobie głowę optymalizacją gier dla wielu platform i po prostu postawiły na skalowanie w górę, aby nadrobić braki. Jednak może to nie być do końca prawdą.

Niektóre raporty cytujące anonimowych twórców sugerują, że zapewnienie stabilnej wydajności na komputerze PC staje się po prostu niemożliwe ze względu na nieskończoną liczbę kombinacji sprzętu. Stanowi to wyraźny kontrast w przypadku optymalizacji pod kątem, powiedzmy, PS5 lub Xbox Series X, gdzie istnieje duża pewność co do procesora graficznego, z którym komunikuje się gra. Inne raporty sugerują brak dogłębnej wiedzy na temat silników gier ze strony programistów ze względu na wszechobecność Unreal Engine.

Źródło: zWORMz Gaming

Nawet to nie jest teoria, biorąc pod uwagę, że wiele gier na rok 2023 powstało na Frostbite, RE Engine i zastrzeżonych silnikach Naughty Dog i Team Ninja. Nie jest więc do końca jasne, o co tutaj chodzi. Cokolwiek by to nie było, faktem jest, że zakup najwyższej klasy karty graficznej niewiele da, aby zapewnić rozgrywkę na najwyższym poziomie jeśli branża jest zajęta zmaganiem się z wyzwaniami optymalizacyjnymi, nierealistycznymi terminami i innymi nienazwanymi problemami.

Karty „średniego zasięgu” już tego nie wytrzymają

Jeśli myślisz: „Po prostu kupię tańszą kartę graficzną”, lepiej przemyśl swoją strategię. Zarówno Nvidia, jak i AMD powoli, ale skutecznie, na nowo zdefiniowały, co oznaczają karty graficzne średniej klasy. To, co kiedyś mieściło się w przedziale cenowym 250–300 dolarów, teraz znacznie przesunęło się w górę drabinki cenowej do punktu, w którym musimy nazwać RTX 4070 za 600 dolarów kartą średniej klasy. Karty Nvidii klasy 60 były kiedyś kartami dla mas, z takimi hitami jak GTX 1060 i GTX 1660 Ti, ale teraz, gdy szybko przeniesiemy się do czasów współczesnych, RTX 4060 to po prostu pośmiewisko.

Podczas gdy prawdziwa wydajność w średnim zakresie kosztuje obecnie bombę, stosunkowo tańsze karty, takie jak RTX 4060, po prostu rozczarowują. Nawet konkurencyjne oferty AMD, takie jak RX 7700 XT, są zdecydowanie za drogie w stosunku do tego, co oferują, a jednocześnie pozostają w tyle za Nvidią pod względem kluczowych funkcji. Kupno karty graficznej w rozsądnej cenie nie wchodzi już w grę, jeśli chcesz uzyskać najlepszą wydajność i funkcje bez nadwyrężania budżetu.

Na Intel Arc nadal nie można liczyć

Flagowy produkt Intela w ofercie procesorów graficznych do komputerów stacjonarnych, Intel Arc A770 było zaskakująco solidnym wejściem Team Blue do duopolu procesorów graficznych do gier Nvidii i AMD. Nawet Intel Arc A750 miało sens dla budżetowych nabywców poszukujących karty graficznej w rozsądnej cenie. Jednak pomimo wszystkich zalet Intel Arc, jest to wciąż odległa, trzecia opcja dla graczy, ponieważ ci, którzy celują w wydajność ray tracingu w rozdzielczości 1440p przy 100 FPS, nie mają jej nawet w lusterku wstecznym.

Intel może ożywić rynek budżetowych procesorów graficznych z nadchodzącymi kartami Battlemage, ale nie pokładam wielkich nadziei. Architektura Arc firmy Intel miała sporo problemów ze sterownikami i zużyciem energii. Chociaż można to przypisać architekturze pierwszej generacji, nie sądzę, że drugi pokaz Intela byłby w stanie naprawić wszystko, co poszło nie tak z Alchemistem.

źródło: ASRock

Nvidia i AMD mogą w przyszłym roku być prawie nieobecne w segmencie budżetowym, ale ludzie nadal tak będą możliwość wyboru kart GeForce lub Radeon starszej generacji zamiast podobnie wycenionych Intel Arc karty. Do prawdziwie trójstronnej bitwy na rynku procesorów graficznych do komputerów stacjonarnych Intel będzie potrzebował kolejnych kilku lat, aby udoskonalić swoją architekturę i stworzyć prawdziwie flagowe produkty. Do tego czasu jedyne, co możemy zrobić, to lamentować nad obsesją Nvidii i AMD na punkcie sztucznej inteligencji.

Czy sztuczna inteligencja sprawi, że marzenie o modernizacji procesora graficznego będzie sztuczne?

Jestem ostatnią osobą, która bez powodu ogłasza śmierć długoletniej technologii. Karty graficzne do gier są od zawsze – z pozytywnych i negatywnych powodów – najważniejszym elementem gier komputerowych. Jeśli jednak producenci procesorów graficznych będą nadal nieubłaganie skupiać się na chipach AI (co logicznie by zrobili) i tak się utrzymają ignorując graczy (a nimi byli), oczywiste jest, że gry na PC zaczną wyglądać zupełnie inaczej Wkrótce.

Przystępność cenowa zniknęła już z leksykonu przeciętnego gracza. Dostępność i wydajność mogą być następne, jeśli coś nie daje. Miejmy nadzieję, że szum wokół sztucznej inteligencji ustabilizuje się wraz z ewolucją branży, a producenci procesorów graficznych zaczną ponownie myśleć o graczach, raczej wcześniej niż później.