Hvad er en GPU? Inde i komponenten, der driver gaming og mere

click fraud protection

Uanset om du er en gamer, en indholdsskaber eller datacentertekniker, er GPU'er spændende. Her er alt, hvad du behøver at vide om dem.

I en række liste over de mest spændende pc-komponenter er GPU'er let S-tier. Uanset om du er en teknologientusiast eller bare den gennemsnitlige gamer, er det svært ikke at lade sig rive med af hypen om en helt ny udgivelse (godt, måske ikke længere). De fleste forstår GPU'en som den del af en computer, der kører spil rigtig godt, men der er meget mere i det end det. Her er alt, hvad du behøver at vide om GPU'er, og hvorfor de er en af ​​de mest unikke komponenter i en computer.

Hvad er en GPU, og hvordan virker den

Lad os først afklare, hvad en grafisk behandlingsenhed (GPU) præcis er. Grundlæggende er det en processor, der bruger masser af individuelt svage kerner kaldet shaders til at gengive 3D-grafik. GPU'er kan komme i alle mulige former: integreret i en CPU (som set i Intels almindelige CPU'er og AMD's APU'er), loddet på et bundkort i enheder som bærbare computere, eller endda som en del af en komplet enhed, du kan tilslutte til din pc kendt som en grafik kort. Selvom vi ofte bruger ordene GPU og grafikkort i flæng, er GPU'en blot processoren inde i kortet.

Nøgleforskellen mellem GPU'er og CPU'er er, at GPU'er normalt er specialiserede til 3D-opgaver (afspilning af videospil eller gengivelse, for eksempel) og udmærker sig ved at behandle arbejdsbelastninger parallelt. Med parallel behandling tackler alle kernerne den samme opgave på én gang, noget som CPU'er kæmper med. CPU'er er optimeret til seriel eller sekventiel behandling, hvilket normalt betyder, at kun én eller måske nogle få kerner kan arbejde på en enkelt opgave på samme tid. Specialisering betyder dog, at GPU'er ikke egner sig til mange ting, som CPU'er kan bruges til.

GPU'en er mest berømt for at være rygraden i grafikkortet, en enhed, der praktisk talt er en computer for sig selv, da den kommer med en processor, bundkort, dedikeret hukommelse kaldet VRAMog køligere. Ikke kun det, men grafikkort kan nemt tilsluttes pc'er via en enkelt PCIe-slot eller endda gennem en Thunderbolt-port, der bruger USB Type C-porten, som gør det muligt for grafikkort at forbinde til bærbare computere også. Der er virkelig ingen anden komponent som grafikkortet med hensyn til ydeevnepotentiale og nem opgradering.

Hvilke virksomheder laver GPU'er?

Kilde: Nvidia

Oprindelsen af ​​GPU'en er bundet op i videospils historie, som har været den traditionelle brugssag for GPU'er. Det er svært at sige, hvornår første GPU blev skabt, men udtrykket blev tilsyneladende først opfundet af Sony for sin originale PlayStation-konsol i 1994, som brugte en Toshiba chip. Fem år senere hævdede Nvidia, at dens GeForce 256 var den første GPU nogensinde med den begrundelse, at den kunne udføre de transformations- og belysningsopgaver, der tidligere blev udført på CPU'en. Nvidia skabte nok ikke den første GPU, og det var ikke engang det første grafikkort til desktops.

Fordi de tidligste grafikprocessorer var enkle, var der tonsvis af virksomheder, der lavede deres egne GPU'er til konsoller, desktops og andre computere. Men efterhånden som GPU'en udviklede sig, hvilket gjorde dem sværere at lave, begyndte virksomheder at droppe ud af markedet. Du så ikke længere generiske elektronikvirksomheder som Toshiba og Sony lave deres egne GPU'er, og mange virksomheder, der ikke lavede andet end at lave GPU'er, som 3dfx Interactive, gik også i stå. I begyndelsen af ​​2000'erne var hveden skåret fra avnerne, og der var kun to store spillere tilbage inden for grafik: Nvidia og ATI, hvoraf sidstnævnte blev opkøbt af AMD i 2006.

I over to årtier var Nvidia og ATI/AMD de eneste virksomheder, der var i stand til at lave højtydende grafik til konsoller og pc'er. Den integrerede grafikscene, derimod, har været mere forskelligartet, fordi der er stærke incitamenter til at lave integrerede GPU'er (som ikke at skulle betale Nvidia eller AMD for at bruge deres GPU'er), og også fordi det ikke er så svært. Intel trådte dog ind i den højtydende GPU-scene i 2022 og forvandlede duopolet til et triopol.

Hvad bruges GPU'er til?

Spil har altid været den primære brug for grafikkort, men det er begyndt at blive mindre og mindre sandt i de senere år, efterhånden som efterspørgslen efter bredere computerkraft fortsætter med at stige. Som det viser sig, er kernerne i GPU'er nyttige til mere end blot grafik, hvilket giver anledning til datacenter- og kunstig intelligens-optimerede chips kaldet general-purpose GPU'er (GPGPU'er). Efterspørgslen er blevet så høj, at Nvidias datacenter-GPU'er tjener flere penge til virksomheden end gaming. AMD og Intel søger også at indkassere efterspørgslen efter datacenter og AI GPU'er. Til sidst kan andre virksomheder også deltage i kapløbet, efterhånden som et nyt marked materialiserer sig.

I tilfælde af AI-arbejdsbelastninger er GPU'er blevet utrolig vigtige i f.eks AI billedgenerering eller i uddannelse af store sprogmodeller (LLM'er). Dette skyldes, at deres evne til at behandle parallelt er perfekt til store matrixoperationer, der er ekstremt almindelige i AI.

Nvidia vs. AMD vs. Intel: hvad er bedst til spil?

Lige siden desktop-grafikkort til spil først blev populært i 90'erne, er ét spørgsmål konsekvent blevet stillet lige siden: Hvilket mærke er det bedste? For nylig spurgte folk kun, om Nvidia var bedre end AMD og omvendt, men nu er tingene lidt mere komplicerede med Intel på vej ind i kampen. Selvom intet mærke er fuldstændig bedre end det andet, har hvert deres egne styrker og svagheder.

Nvidia har altid positioneret sig som muligheden for dem, der ønsker det bedste gaming GPU med den mest ydeevne og de mest lokkende funktioner. Mens Nvidias grafikkort normalt er gode, er de også ofte dyre, i hvert fald i forhold til dem fra AMD og nu Intel. Selvom Nvidias eksklusive funktioner er fede på papiret, lever den faktiske oplevelse muligvis ikke op til hypen. For eksempel, DLSS er en rigtig fin funktion til Nvidia-kort, men den findes ikke i mange spil og har en del ulemper.

Der er virkelig ingen anden komponent som grafikkortet med hensyn til ydeevnepotentiale og nem opgradering.

AMD har derimod ikke altid konkurreret med Nvidia. AMD har historisk tilbudt GPU'er med bedre værdi, hvilket ofte lader Nvidias top-end-kort stå uanfægtet. På den anden side lader Nvidia ofte AMD have frie tøjler over budget GPU marked, og det gælder især i dag. Derudover halter AMD normalt bagefter Nvidia, når det kommer til funktioner, men det har en anstændig track record med at indhente og nogle gange endda overgå sine konkurrenter.

Intel har kun været på gaming GPU-markedet i omkring et år i skrivende stund, så det har ikke rigtig etableret sig endnu, men indtil videre har Intel konkurreret på den værdi, AMD normalt gør. Den største kamp for Intel har været dens drivere eller softwaren, der spiller en afgørende rolle for, hvor godt en GPU klarer sig i spil. Siden dens første generation af Arc Alchemist GPU'er blev lanceret i 2022, har Intel arbejdet hårdt på at optimere sine drivere, og i dag Intels Arc A750 er et populært valg til low-end og midrange pc'er.

Det er ret tydeligt, hvor hver virksomhed udmærker sig. Nvidia er det bedste valg for dem, der har et stort budget og ønsker både fantastisk ydeevne og avancerede funktioner. AMD er mærket for flere mennesker, og selvom AMD's top-end-kort normalt ikke helt matcher Nvidias i ydeevne og funktioner, er det også rigtigt, at Nvidia ikke har lavet et under-$300-kort siden 2019. Intel tilbyder i øjeblikket en god mellemtone-GPU, men det er det, selvom kommende kort kan ændre tingene.

Generelt er GPU-markedet klar til en forandring i løbet af de næste par år, hvor Nvidia bevæger sig endnu mere til high-end-segmentet, og Intel går ind i kampen. Vi må se, hvordan det fortsætter med at forme sig.