Enten du er en spiller, en innholdsskaper eller datasentertekniker, er GPU-er spennende. Her er alt du trenger å vite om dem.
I en liste over de mest spennende PC-komponentene er GPUer enkelt S-tier. Enten du er en teknologientusiast eller bare en gjennomsnittlig spiller, er det vanskelig å ikke la seg rive med av hypen om en helt ny utgivelse (vel, kanskje ikke lenger). De fleste forstår GPU som den delen av en datamaskin som kjører spill veldig bra, men det er mye mer enn det. Her er alt du trenger å vite om GPUer og hvorfor de er en av de mest unike komponentene i en datamaskin.
Hva en GPU er og hvordan den fungerer
La oss først avklare hva en grafisk prosesseringsenhet (GPU) er. I utgangspunktet er det en prosessor som bruker mange individuelt svake kjerner kalt shaders for å gjengi 3D-grafikk. GPU-er kan komme i alle slags former: integrert i en CPU (som sett i Intels mainstream-CPU-er og AMDs APU-er), loddet på et hovedkort i enheter som bærbare datamaskiner, eller til og med som en del av en komplett enhet du kan koble til PC-en din kjent som en grafikk kort. Selv om vi ofte bruker ordene GPU og grafikkort om hverandre, er GPU bare prosessoren inne i kortet.
Nøkkelforskjellen mellom GPUer og CPUer er at GPUer vanligvis er spesialiserte for 3D-oppgaver (spille videospill eller gjengi, for eksempel) og utmerker seg ved å behandle arbeidsbelastninger parallelt. Med parallell prosessering takler alle kjernene den samme oppgaven på en gang, noe CPUer sliter med. CPU-er er optimalisert for seriell eller sekvensiell behandling, noe som vanligvis betyr at bare én eller kanskje noen få kjerner kan jobbe på en enkelt oppgave samtidig. Spesialisering betyr imidlertid at GPUer ikke er egnet for mange ting som CPUer kan brukes til.
GPUen er mest kjent for å være ryggraden i grafikkortet, en enhet som praktisk talt er en datamaskin for seg selv ettersom den kommer med prosessor, hovedkort, dedikert minne kalt VRAM, og kjøligere. Ikke bare det, men grafikkort kan enkelt kobles til PC-er via et enkelt PCIe-spor eller til og med gjennom en Thunderbolt-port som bruker USB Type C-porten, som lar grafikkort kobles til bærbare datamaskiner også. Det er egentlig ingen annen komponent som grafikkortet når det gjelder ytelsespotensial og enkel oppgradering.
Hvilke selskaper lager GPUer?
Opprinnelsen til GPUen er knyttet opp til videospillhistorien, som har vært den tradisjonelle brukssaken for GPUer. Det er vanskelig å si når første GPU ble opprettet, men begrepet ble tilsynelatende først laget av Sony for sin originale PlayStation-konsoll i 1994, som brukte en Toshiba chip. Fem år senere hevdet Nvidia at GeForce 256 var tidenes første GPU med den begrunnelse at den kunne utføre transformasjons- og lysoppgavene som tidligere ble utført på CPU. Utvilsomt, Nvidia laget ikke den første GPUen, og det var ikke engang det første grafikkortet for stasjonære datamaskiner.
Fordi de tidligste grafikkprosessorene var enkle, var det tonnevis av selskaper som laget sine egne GPUer for konsoller, stasjonære datamaskiner og andre datamaskiner. Men etter hvert som GPUen utviklet seg, noe som gjorde dem vanskeligere å lage, begynte selskaper å falle ut av markedet. Du så ikke lenger generiske elektronikkselskaper som Toshiba og Sony lage sine egne GPU-er, og mange selskaper som ikke gjorde annet enn å lage GPU-er, som 3dfx Interactive, gikk også konkurs. På begynnelsen av 2000-tallet var hveten kuttet fra agnene, og det var bare to store aktører igjen innen grafikk: Nvidia og ATI, hvorav sistnevnte ble kjøpt opp av AMD i 2006.
I over to tiår var Nvidia og ATI/AMD de eneste selskapene som var i stand til å lage høyytelsesgrafikk for konsoller og PC-er. Den integrerte grafikkscenen derimot, har vært mer mangfoldig fordi det er sterke insentiver for å lage integrerte GPU-er (som ikke å måtte betale Nvidia eller AMD for å bruke GPU-ene deres) og også fordi det ikke er så vanskelig. Imidlertid gikk Intel inn i høyytelses GPU-scenen i 2022, og forvandlet duopolet til et triopol.
Hva brukes GPUer til?
Gaming var alltid hovedbruken for grafikkort, men det begynner å bli mindre og mindre sant de siste årene ettersom etterspørselen etter bredere datakraft fortsetter å øke. Som det viser seg, er kjernene i GPU-er nyttige for mer enn bare grafikk, og gir opphav til datasenter- og kunstig intelligens-optimaliserte brikker kalt generell GPU-er (GPGPU). Etterspørselen har blitt så høy at Nvidias datasenter-GPUer tjener mer penger for selskapet enn spill. AMD og Intel prøver også å tjene penger på etterspørselen etter datasenter og AI GPUer. Etter hvert kan andre selskaper også delta i løpet, ettersom et nytt marked materialiserer seg.
Når det gjelder AI-arbeidsmengder, har GPU-er blitt utrolig viktige i slike som AI-bildegenerering eller i opplæring av store språkmodeller (LLMs). Dette er takket være at deres evne til å behandle parallelt er perfekt for store matriseoperasjoner som er ekstremt vanlige i AI.
Nvidia vs. AMD vs. Intel: hva er best for spill?
Helt siden stasjonære grafikkort for spill først ble populært på 90-tallet, har ett spørsmål konsekvent blitt stilt siden: Hvilket merke er det beste? Nylig spurte folk bare om Nvidia var bedre enn AMD og omvendt, men nå er ting litt mer komplisert med Intel på vei inn i kampen. Selv om ingen merkevare er helt bedre enn den andre, har hver sine styrker og svakheter.
Nvidia har alltid posisjonert seg som alternativet for de som ønsker det beste spill-GPU med mest ytelse og de mest fristende funksjonene. Mens Nvidias grafikkort vanligvis er gode, er de også ofte dyre, i hvert fall i forhold til de fra AMD og nå Intel. I tillegg, mens Nvidias eksklusive funksjoner er kule på papiret, lever kanskje ikke den faktiske opplevelsen opp til hypen. For eksempel, DLSS er en veldig fin funksjon for Nvidia-kort, men den er ikke i mange spill og har en del ulemper.
Det er egentlig ingen annen komponent som grafikkortet når det gjelder ytelsespotensial og enkel oppgradering.
AMD har derimot ikke alltid konkurrert med Nvidia. AMD har historisk tilbudt GPUer med bedre verdi, noe som ofte lar Nvidias toppkort forbli uimotsagt. På den annen side lar Nvidia ofte AMD ha frie tøyler over budsjett GPU-markedet, og det gjelder spesielt i dag. I tillegg ligger AMD vanligvis bak Nvidia når det kommer til funksjoner, men den har en anstendig merittliste for å fange opp og noen ganger til og med overgå konkurrentene.
Intel har kun vært i gaming GPU-markedet i omtrent ett år i skrivende stund, så det har ikke helt etablert seg enda, men så langt har Intel konkurrert på verdien AMD vanligvis gjør. Den største kampen for Intel har vært driverne, eller programvaren som spiller en avgjørende rolle for hvor godt en GPU presterer i spill. Siden den første generasjons Arc Alchemist GPU-er ble lansert i 2022, har Intel jobbet hardt med å optimalisere driverne sine, og i dag Intels Arc A750 er et populært valg for PC-er i lav- og mellomklasse.
Det er ganske tydelig hvor hvert selskap utmerker seg. Nvidia er toppvalget for de som har et stort budsjett og ønsker både god ytelse og banebrytende funksjoner. AMD er merket for flere mennesker, og selv om AMDs topp-end-kort vanligvis ikke helt samsvarer med Nvidias ytelse og funksjoner, er det også sant at Nvidia ikke har laget et kort under $300 siden 2019. Intel tilbyr for øyeblikket en god mellomtone GPU, men det er omtrent det, selv om kommende kort kan endre ting.
Generelt er GPU-markedet klar for en endring i løpet av de neste årene, med Nvidia som beveger seg enda mer til high-end-segmentet og Intel går inn i kampen. Vi får se hvordan dette fortsetter å forme seg.