Що таке GPU? Всередині компонента, який забезпечує ігри та багато іншого

Незалежно від того, чи ви геймер, творець контенту чи технік центру обробки даних, графічні процесори захоплюють. Ось усе, що вам потрібно про них знати.

У списку найбільш захоплюючих компонентів ПК графічні процесори легко займають S-рівень. Незалежно від того, чи ви ентузіаст технологій, чи просто пересічний гравець, важко не потрапити в ажіотаж щодо абсолютно нового випуску (ну, можливо, вже ні). Більшість розуміє GPU як частину комп’ютера, яка дійсно добре запускає ігри, але це набагато більше, ніж це. Ось усе, що вам потрібно знати про графічні процесори та чому вони є одними з найбільш унікальних компонентів комп’ютера.

Що таке графічний процесор і як він працює

Спочатку давайте з’ясуємо, що таке графічний процесор (GPU). По суті, це процесор, який використовує багато окремих слабких ядер, які називаються шейдерами, для відтворення 3D-графіки. Графічні процесори можуть мати різноманітні форми: інтегровані в центральний процесор (як це видно в основних процесорах Intel і AMD), припаяні до материнська плата в таких пристроях, як ноутбуки, або навіть як частина повного пристрою, який можна підключити до ПК, відомого як графічна картку. Хоча ми часто використовуємо слова графічний процесор і відеокарта як синоніми, графічний процесор — це лише процесор усередині карти.

Ключова відмінність між графічними процесорами та центральними процесорами полягає в тому, що графічні процесори зазвичай спеціалізуються на 3D-завданнях (наприклад, гра у відеоігри або візуалізація) і відмінно справляються з паралельною обробкою робочих навантажень. Завдяки паралельній обробці всі ядра одночасно вирішують одне й те саме завдання, з чим процесорам важко. Процесори оптимізовані для послідовної або послідовної обробки, що зазвичай означає, що тільки одне або, можливо, кілька ядер можуть працювати над одним завданням одночасно. Однак спеціалізація означає, що графічні процесори не підходять для багатьох речей, для яких можна використовувати центральні процесори.

Графічний процесор найбільш відомий як основа графічної карти, пристрою, який є практично комп’ютером сам по собі, оскільки він постачається з процесором, материнською платою, виділена пам'ять, яка називається VRAM, і кулер. Мало того, графічні карти можна легко підключати до ПК через один слот PCIe або навіть через Порт Thunderbolt, який використовує порт USB типу C, який дозволяє підключати відеокарти до ноутбуків теж. Насправді немає іншого компонента, подібного до відеокарти з точки зору потенціалу продуктивності та простоти оновлення.

Які компанії виробляють графічні процесори?

Джерело: Nvidia

Походження графічного процесора пов’язане з історією відеоігор, які були традиційним випадком використання графічних процесорів. Важко сказати, коли був створений перший GPU, але цей термін, очевидно, вперше ввів Sony для своєї оригінальної консолі PlayStation у 1994 році, яка використовувала Toshiba чіп. П'ять років потому Nvidia заявила, що її GeForce 256 стала першим графічним процесором на тій підставі, що він міг виконувати завдання трансформації та освітлення, які раніше виконувалися на ЦП. Можна стверджувати, що Nvidia не створила перший GPU, і це навіть не була перша відеокарта для настільних ПК.

Оскільки перші графічні процесори були простими, було безліч компаній, які виготовляли власні графічні процесори для консолей, настільних ПК та інших комп’ютерів. Але в міру розвитку GPU, що ускладнювало їх виготовлення, компанії почали виходити з ринку. Ви більше не бачили загальних компаній електроніки, таких як Toshiba та Sony, які виготовляли власні графічні процесори, і багато компаній, які робили лише графічні процесори, як-от 3dfx Interactive, також збанкрутували. На початку 2000-х зерна були зрізані з полови, і залишилося лише два головних гравця в області графіки: Nvidia та ATI, останню з яких придбала AMD у 2006 році.

Понад два десятиліття Nvidia та ATI/AMD були єдиними компаніями, здатними створювати високопродуктивну графіку для консолей і ПК. Інтегрована графічна сцена, навпаки, було більш різноманітним, оскільки існують сильні стимули створювати інтегровані графічні процесори (наприклад, відсутність необхідності платити Nvidia чи AMD за використання їхніх графічних процесорів), а також тому, що це не так вже й важко. Однак у 2022 році Intel вийшла на сцену високопродуктивних GPU, перетворивши дуополію на тріополію.

Для чого використовуються графічні процесори?

Ігри завжди були основним використанням графічних карт, але останнім часом це стає все менш і менш вірним, оскільки попит на ширшу обчислювальну потужність продовжує зростати. Як виявилося, ядра графічних процесорів корисні не тільки для роботи з графікою, створюючи центри обробки даних і оптимізовані для штучного інтелекту чіпи, які називаються графічними процесорами загального призначення (GPGPU). Попит настільки високий, що графічні процесори для центрів обробки даних Nvidia приносять компанії більше грошей, ніж ігрові. AMD і Intel також прагнуть заробити на попиті на центри обробки даних і графічні процесори штучного інтелекту. Згодом інші компанії також можуть вступити в гонку, коли матеріалізується новий ринок.

У випадку робочих навантажень штучного інтелекту графічні процесори стали неймовірно важливими Генерація зображень ШІ або в підготовці великих мовних моделей (LLM). Це завдяки їхній здатності обробляти паралельно, що ідеально підходить для великих матричних операцій, які надзвичайно поширені в ШІ.

Nvidia проти AMD проти. Intel: який найкращий для ігор?

З тих пір, як настільні відеокарти для ігор стали популярними в 90-х роках, з тих пір постійно ставиться одне питання: який бренд найкращий? Нещодавно люди лише запитували, чи Nvidia краща за AMD і навпаки, але тепер все трохи складніше, коли в бій вступає Intel. Хоча жоден бренд не є кращим за інший, кожен має свої сильні та слабкі сторони.

Nvidia завжди позиціонувала себе як варіант для тих, хто хоче найкращий ігровий графічний процесор з найбільшою продуктивністю та найпривабливішими функціями. Хоча графічні карти Nvidia зазвичай хороші, вони також часто дорогі, принаймні порівняно з відеокартами AMD, а тепер і Intel. Крім того, хоча на папері ексклюзивні функції Nvidia круті, реальний досвід може не виправдати ажіотажу. Наприклад, DLSS це дійсно гарна функція для карт Nvidia, але вона не в багатьох іграх і має чимало недоліків.

Насправді немає іншого компонента, подібного до відеокарти з точки зору потенціалу продуктивності та простоти оновлення.

AMD, навпаки, не завжди конкурувала з Nvidia. AMD історично пропонувала графічні процесори з кращою вартістю, що часто дозволяло топовим картам Nvidia залишатися безперечними. З іншого боку, Nvidia часто дає AMD волю ринок бюджетних GPU, і це особливо актуально сьогодні. Крім того, AMD зазвичай відстає від Nvidia, коли справа доходить до функцій, але вона має пристойний досвід наздоганяння, а іноді навіть перевищення конкурентів.

На момент написання статті Intel працює на ринку ігрових графічних процесорів лише близько року, тому вона ще не встигла зарекомендувати себе, але досі Intel конкурує за цінністю, яку зазвичай робить AMD. Найбільшою проблемою для Intel були її драйвери або програмне забезпечення, яке відіграє вирішальну роль у тому, наскільки добре працює GPU в іграх. З моменту запуску першого покоління графічних процесорів Arc Alchemist у 2022 році Intel наполегливо працювала над оптимізацією своїх драйверів, і сьогодні Intel Arc A750 є популярним вибором для ПК низького та середнього класу.

Цілком зрозуміло, де кожна компанія переважає. Nvidia є найкращим вибором для тих, хто має великий бюджет і хоче як чудової продуктивності, так і найсучасніших функцій. AMD — це бренд для більшої кількості людей, і хоча топові карти AMD зазвичай не зовсім збігаються з Nvidia за продуктивністю та функціями, це також правда, що Nvidia не виробляла карти до 300 доларів з 2019 року. На даний момент Intel пропонує хороший графічний процесор середнього класу, але це все, хоча майбутні карти можуть змінити ситуацію.

Загалом ринок GPU налаштований на зміни протягом наступних кількох років, коли Nvidia ще більше перейде до висококласного сегменту, а Intel вступить у боротьбу. Нам потрібно буде побачити, як це розвиватиметься далі.