Mikä on GPU? Komponentin sisällä, joka tehostaa pelaamista ja paljon muuta

click fraud protection

Olitpa pelaaja, sisällöntuottaja tai datakeskusteknikko, GPU: t ovat jännittäviä. Tässä on kaikki, mitä sinun tarvitsee tietää heistä.

Jännittävimpien PC-komponenttien tason luettelossa GPU: t ovat helposti S-tason. Olitpa tekniikan ystävä tai vain tavallinen pelaaja, on vaikea jäädä upouuden julkaisun hypeen (no ehkä ei enää). Useimmat ymmärtävät GPU: n osana tietokonetta, joka ajaa pelejä todella hyvin, mutta siinä on paljon muutakin. Tässä on kaikki, mitä sinun tulee tietää GPU: ista ja siitä, miksi ne ovat yksi tietokoneen ainutlaatuisimmista komponenteista.

Mikä GPU on ja miten se toimii

Selvitetään ensin, mikä Graphics Processing Unit (GPU) tarkalleen on. Pohjimmiltaan se on prosessori, joka käyttää 3D-grafiikan renderöimiseen paljon yksittäisesti heikkoja ytimiä, joita kutsutaan shadereiksi. Grafiikkasuorittimia voi olla kaikenlaisissa muodoissa: integroituina prosessoriin (kuten Intelin yleisimmissä prosessoreissa ja AMD: n APU: issa), juotettuina emolevy laitteissa, kuten kannettavissa tietokoneissa, tai jopa osana kokonaista laitetta, jonka voit liittää tietokoneeseen, joka tunnetaan grafiikkana kortti. Vaikka käytämme usein sanoja GPU ja näytönohjain vaihtokelpoisesti, GPU on vain kortin sisällä oleva prosessori.

Keskeinen ero GPU: iden ja prosessorien välillä on, että GPU: t ovat yleensä erikoistuneet 3D-tehtäviin (esimerkiksi videopelien pelaamiseen tai renderöintiin) ja ne ovat erinomaisia ​​​​prosessoimaan työkuormia rinnakkain. Rinnakkaisprosessoinnilla kaikki ytimet hoitavat saman tehtävän kerralla, minkä kanssa suorittimet kamppailevat. Prosessorit on optimoitu sarja- tai peräkkäistä käsittelyä varten, mikä tarkoittaa yleensä sitä, että vain yksi tai ehkä muutama ydin voi toimia yhdessä tehtävässä samanaikaisesti. Erikoistuminen tarkoittaa kuitenkin sitä, että GPU: t eivät sovellu moniin asioihin, joihin prosessoreita voidaan käyttää.

GPU on tunnetuin näytönohjaimen selkäranka, laite, joka on käytännössä tietokone itsessään, koska sen mukana tulee prosessori, emolevy, omistettu muisti nimeltä VRAM, ja viileämpi. Ei vain sitä, vaan näytönohjaimet voidaan helposti liittää tietokoneisiin yhden PCIe-paikan kautta tai jopa a Thunderbolt-portti, joka käyttää USB Type C -porttia, jonka avulla näytönohjaimet voidaan liittää kannettaviin tietokoneisiin liian. Ei todellakaan ole mitään muuta komponenttia, kuten näytönohjain, mitä tulee suorituskykypotentiaaliin ja päivityksen helppouteen.

Mitkä yritykset valmistavat GPU: ta?

Lähde: Nvidia

GPU: n alkuperä on sidottu videopelien historiaan, joka on ollut GPU: iden perinteinen käyttötapa. On vaikea sanoa, milloin ensimmäinen GPU luotiin, mutta Sony loi termin ilmeisesti ensimmäisenä alkuperäiselle PlayStation-konsolilleen vuonna 1994, jossa käytettiin Toshibaa. siru. Viisi vuotta myöhemmin Nvidia väitti, että sen GeForce 256 oli kaikkien aikojen ensimmäinen GPU sillä perusteella, että se pystyi suorittamaan muunnos- ja valaistustehtävät, jotka aiemmin tehtiin suorittimella. Voidaan väittää, että Nvidia ei luonut ensimmäistä GPU: ta, eikä se ollut edes ensimmäinen pöytätietokoneiden näytönohjain.

Koska varhaisimmat grafiikkaprosessorit olivat yksinkertaisia, monet yritykset tekivät omia GPU: ta konsoleille, pöytäkoneille ja muille tietokoneille. Mutta kun GPU kehittyi, mikä vaikeutti niiden valmistamista, yritykset alkoivat pudota markkinoilta. Et enää nähnyt geneeristen elektroniikkayritysten, kuten Toshiban ja Sonyn, tekevän omia grafiikkasuorituksiaan, ja monet yritykset, jotka eivät tehneet mitään muuta kuin valmistivat grafiikkasuorituksia, kuten 3dfx Interactive, menivät myös konkurssiin. 2000-luvun alkuun mennessä vehnä oli leikattu akanoista, ja grafiikan alalla oli jäljellä enää kaksi suurta pelaajaa: Nvidia ja ATI, joista jälkimmäisen AMD osti vuonna 2006.

Yli kahden vuosikymmenen ajan Nvidia ja ATI/AMD olivat ainoita yrityksiä, jotka pystyivät valmistamaan korkean suorituskyvyn grafiikkaa konsoleille ja tietokoneille. Integroitu grafiikkanäkymä sen sijaan on ollut monipuolisempi, koska integroitujen näytönohjainten tekemiseen on vahvat kannustimet (kuten ei tarvitse maksaa Nvidialle tai AMD: lle GPU: iden käytöstä) ja koska se ei ole niin vaikeaa. Intel kuitenkin astui korkean suorituskyvyn GPU-skenelle vuonna 2022 ja muutti duopolin triopoliksi.

Mihin GPU: ita käytetään?

Pelaaminen on aina ollut näytönohjainkorttien pääasiallinen käyttötarkoitus, mutta se on alkanut muuttua yhä vähemmän todeksi viime vuosina, kun laajemman laskentatehon kysyntä kasvaa jatkuvasti. Kuten käy ilmi, GPU: iden ytimet ovat hyödyllisiä muutakin kuin grafiikkaa varten, mikä johtaa datakeskukseen ja tekoälylle optimoituihin siruihin, joita kutsutaan yleiskäyttöisiksi GPU: iksi (GPGPU). Kysyntä on noussut niin suureksi, että Nvidian datakeskuksen GPU: t tienaavat yritykselle enemmän rahaa kuin pelikäyttöiset. AMD ja Intel pyrkivät myös lunastamaan datakeskusten ja AI GPU: iden kysynnän. Lopulta myös muut yritykset voivat osallistua kilpailuun, kun uusi markkina toteutuu.

Tekoälyn työkuormien tapauksessa grafiikkasuorituksista on tullut uskomattoman tärkeitä AI Image Generation tai suurten kielimallien (LLM) koulutuksessa. Tämä johtuu siitä, että niiden kyky prosessoida rinnakkain on täydellinen suurille matriisioperaatioille, jotka ovat erittäin yleisiä tekoälyssä.

Nvidia vs. AMD vs. Intel: mikä on paras pelaamiseen?

Siitä lähtien, kun pöytätietokoneiden pelinäytönohjaimet tulivat suosituiksi 90-luvulla, yksi kysymys on jatkuvasti kysytty siitä lähtien: Mikä merkki on paras? Äskettäin ihmiset vain kysyivät, oliko Nvidia parempi kuin AMD ja päinvastoin, mutta nyt asiat ovat hieman monimutkaisempia Intelin tullessa taisteluun. Vaikka mikään brändi ei ole täysin toista parempi, jokaisella on omat vahvuutensa ja heikkoutensa.

Nvidia on aina asettanut itsensä vaihtoehdoksi niille, jotka haluavat paras pelin GPU tehokkaimmilla ja houkuttelevimmilla ominaisuuksilla. Vaikka Nvidian näytönohjaimet ovat yleensä hyviä, ne ovat myös usein kalliita, ainakin suhteessa AMD: n ja nyt Intelin vastaaviin. Lisäksi vaikka Nvidian eksklusiiviset ominaisuudet ovat paperilla siistejä, todellinen kokemus ei välttämättä vastaa hypeä. Esimerkiksi, DLSS on todella mukava ominaisuus Nvidia-korteille, mutta sitä ei ole monissa peleissä ja sillä on melkoisesti haittoja.

Ei todellakaan ole mitään muuta komponenttia, kuten näytönohjain, mitä tulee suorituskykypotentiaaliin ja päivityksen helppouteen.

AMD sitä vastoin ei ole aina kilpaillut Nvidian kanssa. AMD on perinteisesti tarjonnut GPU: ita paremmalla hinnalla, mikä antaa usein Nvidian huippuluokan kortteja haastamattomiksi. Toisaalta Nvidia antaa usein AMD: lle vapaat kädet budjetti GPU-markkinoilla, ja se on erityisen totta nykyään. Lisäksi AMD on yleensä jäljessä Nvidiaa ominaisuuksien suhteen, mutta sillä on kunnollinen ennätys kilpailijansa kuromisesta ja joskus jopa ylittämisestä.

Intel on ollut tätä kirjoitettaessa vain noin vuoden peligrafiikkalaitteiden markkinoilla, joten se ei ole vielä vakiinnuttanut asemaansa, mutta toistaiseksi Intel on kilpaillut AMD: n tavallisella arvolla. Intelin suurin kamppailu on ollut sen ajurit tai ohjelmistot, joilla on ratkaiseva rooli GPU: n suorituskyvyssä peleissä. Ensimmäisen sukupolven Arc Alchemist -grafiikkasuorittimiensa lanseerauksesta vuonna 2022 lähtien Intel on tehnyt kovasti töitä optimoidakseen ohjaimiaan, ja tänään Intelin Arc A750 on suosittu valinta low-end- ja keskitason tietokoneille.

On melko selvää, missä kukin yritys on erinomainen. Nvidia on paras valinta niille, joilla on suuri budjetti ja jotka haluavat sekä erinomaisen suorituskyvyn että huippuluokan ominaisuuksia. AMD on merkki useammille ihmisille, ja vaikka AMD: n huippuluokan kortit eivät yleensä vastaa Nvidian suorituskykyä ja ominaisuuksia, on myös totta, että Nvidia ei ole valmistanut alle 300 dollaria korttia vuoden 2019 jälkeen. Intel tarjoaa tällä hetkellä hyvän keskitason GPU: n, mutta siinä se, vaikka tulevat kortit saattavat muuttaa asioita.

Yleisesti ottaen GPU-markkinoilla on odotettavissa muutos muutaman seuraavan vuoden aikana, kun Nvidia siirtyy entistä enemmän huippuluokan segmenttiin ja Intel astuu taisteluun. Saa nähdä, miten tämä jatkuu.