Avere due o più GPU era l'apice dei giochi per PC, ma ora è un ricordo del passato. Quello che è successo?
Fino alla metà degli anni 2010, i PC da gioco più veloci utilizzavano più schede grafiche, di solito due ma a volte fino a quattro. Poi, alcuni dei migliori schede grafiche per giochi ha utilizzato due chip GPU anziché uno solo, il che ha aiutato con il consolidamento. Le tecnologie multi-GPU SLI di Nvidia e CrossFire di AMD sono state viste come l'apice di qualsiasi PC da gioco di fascia alta e potrebbero elevare la tua esperienza di gioco al livello successivo.
Oggi, il multi-GPU è un ricordo del passato, praticamente una reliquia nel mondo dei computer. Il fatto che la maggior parte delle nuove GPU oggi non supporti nemmeno SLI o CrossFire è certamente un problema, ma il la popolarità delle multi-GPU stava diminuendo ben prima che Nvidia e AMD le interrompessero effettivamente tecnologie. Ecco la storia dei giochi multi-GPU e perché non ha resistito alla prova del tempo.
Una breve storia delle multi-GPU, da 3dfx al suo declino
Mentre le moderne schede grafiche sono emerse nei primi anni 2000 dalla rivalità tra Nvidia e AMD, negli anni '90 c'erano molti più giocatori. Una di queste società era 3dfx Interactive, che produceva la nostalgica linea di schede grafiche Voodoo. Per ottenere un vantaggio competitivo, l'azienda decise che due schede grafiche potevano essere meglio di una e nel 1998 introdusse la sua tecnologia Scan-Line Interleave (SLI). È stata una mossa piuttosto geniale da parte di 3dfx poiché ha incoraggiato più vendite di GPU e dissuaso i possessori di Voodoo dal passare a un'altra scheda.
Tuttavia, SLI è stato introdotto proprio mentre 3dfx stava andando verso il fallimento e la società è stata infine acquisita da Nvidia, che ha ottenuto i diritti di proprietà intellettuale su tutto ciò che era di proprietà di 3dfx. Il multi-GPU ha cessato di esistere per un breve periodo dopo l'acquisizione di 3dfx, ma Nvidia ha reintrodotto SLI (cambiando il nome ufficiale in Scalable Link Interface) nel 2004 con la sua serie GeForce 6. Essenzialmente funzionava allo stesso modo di prima: aggiungi più GPU, ottieni più prestazioni. Ma ci sono state alcune innovazioni con la versione di Nvidia.
Mentre il vecchio SLI di 3dfx faceva eseguire a ciascuna GPU il rendering di una riga di pixel uno alla volta (la "linea di scansione" in SLI), Nvidia il nuovo SLI ha introdotto due nuovi metodi di rendering: rendering a fotogramma diviso (SFR) e rendering a fotogramma alternativo (AFR). Con SFR, ogni GPU esegue il rendering di una porzione di un singolo fotogramma, non suddividendo il fotogramma a metà, ma assegnando a ciascuna GPU un blocco altrettanto intenso da renderizzare. AFR, d'altra parte, fa produrre a turno a ciascuna GPU un frame. Sebbene SFR sia ottimo per ridurre la latenza, AFR tende a ottenere le massime prestazioni, anche se con frame pacing e stuttering molto inferiori.
Allo stesso modo, nel 2005, ATI (che presto sarà acquisita da AMD) ha introdotto la propria tecnologia multi-GPU, chiamata CrossFire, ma all'inizio è stata una specie di pasticcio. Con le schede 3dfx e Nvidia, tutto ciò di cui avevi bisogno erano due della stessa GPU e un cavo o un bridge per la connessione loro, ma CrossFire richiedeva di acquistare una speciale scheda "master" oltre a una normale grafica carta. Quindi, invece di usare un bridge, hai usato uno strano cavo DVI che si collegava a entrambe le schede. Basti dire che la prima generazione di CrossFire è stata eseguita male. Non ha aiutato il fatto che, all'epoca, le sue GPU non fossero eccezionali.
Ma CrossFire è diventato davvero unico con l'introduzione della Radeon 3000 di AMD (ex ATI) serie, che presentava la Radeon HD 3870 X2, la prima scheda grafica al mondo con due chip GPU su Esso. AMD è andata molto lontano con questo intero concetto di doppia GPU; i suoi chip della serie Radeon 4000 e 5000 erano in realtà piuttosto piccoli, quindi le schede grafiche a doppia GPU avevano molto senso. L'HD 5970 nel 2009, una delle migliori GPU AMD di tutti i tempi, è stato spesso descritto come troppo veloce per essere fattibile. Successivamente, Nvidia ha anche iniziato a realizzare le proprie schede dual-GPU.
Dopo questo punto, tuttavia, la popolarità del multi-GPU iniziò a diminuire. Nvidia ha abbandonato il concetto dual-GPU per le sue GPU mainstream dopo la GTX 690 nel 2012 e l'ha abbandonato del tutto dopo la GTX Titan Z nel 2014. Nvidia ha reso SLI esclusivo solo due anni dopo per le sue GPU GTX 1070, 1080 e 1080 Ti, e ha anche ridotto il supporto da quattro schede grafiche a due. SLI era in supporto vitale dopo questo, ma è stato finalmente eliminato nel 2020 con il lancio della serie RTX 30, di cui solo il 3090 supportava SLI. Ma questo non ha avuto importanza poiché Nvidia ha interrotto il supporto dei driver SLI dal 2021 in poi.
Nel frattempo, AMD ha continuato a produrre schede dual-GPU per anni, fermandosi solo con la Pro Vega II nel 2019, che era una scheda esclusiva per Apple Mac. AMD ha anche detto che due RX 480 in CrossFire erano una buona alternativa alla GTX 1080 di Nvidia nel 2016. Tuttavia, AMD alla fine ha rinunciato a CrossFire dopo il lancio di RX Vega nel 2017, che è stata l'ultima scheda AMD a supportarlo. Sembra che AMD abbia anche smesso di produrre driver con supporto CrossFire per gioco nel 2017.
Le molte ragioni per cui il multi-GPU si è estinto
I giochi multi-GPU andavano e venivano abbastanza rapidamente, tutto sommato. Era solo una forza significativa dopo il 2004 con SLI e CrossFire, ma negli anni 2010 era già in declino. Alla fine, è stata la direzione in cui stava andando l'industria grafica e il modo in cui i giocatori hanno trovato le soluzioni a GPU singola molto più allettanti a suonare la campana a morto.
Le GPU stavano diventando più grandi ogni generazione e alla fine sono diventate troppo grandi per le multi-GPU
Quando 3dfx ha introdotto lo SLI, le schede grafiche erano dispositivi minuscoli con un assorbimento di potenza davvero basso, niente come i colossi che vediamo oggi. I chip grafici tendevano a essere grandi circa 100 mm2 negli anni '90 e nei primi anni 2000, ma tutto è cambiato quando ATI ha lanciato il suo La serie Radeon 9000, che presentava un chip di oltre 200 mm2, il doppio delle dimensioni di qualsiasi cosa il mondo avesse visto prima. Ciò ha dato il via a una corsa agli armamenti delle GPU che ATI/AMD e Nvidia hanno continuato a intensificare a ogni generazione.
Il fatto è che i chip più grandi richiedono più potenza e un migliore raffreddamento e, sebbene all'inizio l'aumento dell'assorbimento di potenza non abbia avuto un impatto reale sulle configurazioni multi-GPU, alla fine si è rivelato un problema significativo. Già con la GTX 480, le schede grafiche avevano raggiunto i 250 W e due 480 in SLI consumavano un'incredibile quantità di energia. Sebbene AMD abbia posto un'enfasi significativa sul multi-GPU con le sue serie HD 4000 e 5000, è stato davvero solo perché aveva bisogno di qualcosa di fascia alta per andare contro i 480 e 580 di Nvidia poiché i chip grafici di AMD erano troppo di fascia media.
Dalla fine degli anni 2000 in poi, quasi tutte le ammiraglie prodotte da Nvidia e AMD hanno consumato almeno 200 W, spesso 250 W. Potrebbe non essere una coincidenza che l'ultima scheda dual-GPU mainstream di Nvidia, la 690, utilizzasse due chip GTX 680, che avevano un TDP di soli 195 W. Il semplice fatto che le singole GPU stessero diventando più grandi e migliori rendevano SLI e CrossFire più difficili e meno attraente per gli utenti, che di solito non volevano che il loro PC da gioco fosse anche un riscaldatore di spazio e un jet motore.
La multi-GPU era difettosa e richiedeva agli sviluppatori, Nvidia e AMD di investire risorse in essa
Le tendenze dell'hardware erano un problema per la fattibilità del multi-GPU, così come le tendenze del software. Ai tempi in cui SLI è stato introdotto per la prima volta, i giochi erano molto più semplici e persino i migliori giochi del 2004, come Emivita 2, sono piuttosto insignificanti rispetto ai giochi di oggi, anche se possiamo apprezzare quanto fossero fantastici quando sono usciti. SLI e CrossFire richiedevano a Nvidia e AMD di creare ottimizzazioni speciali per multi-GPU nei loro driver per ottenere buone prestazioni, e allora non era un grosso problema.
Ma nel tempo, i giochi (e, per estensione, le GPU) sono diventati più complicati e l'ottimizzazione è diventata ogni anno più difficile. Anche nei titoli che avevano il supporto ufficiale per multi-GPU, l'esperienza era spesso scadente a causa di prestazioni o bug inferiori al normale. Per un breve periodo nel 2016, ho avuto due Radeon R9 380 e quando ho giocato Lo stregone 3, Ho visto spesso strani problemi grafici che a volte coprivano anche caratteristiche importanti come gli ingressi delle caverne, rendendo il gioco non solo bizzarro ma pieno di bug al punto da essere ingiocabile.
Alla fine, è stata la direzione in cui stava andando l'industria grafica e il modo in cui i giocatori hanno trovato le soluzioni a GPU singola molto più allettanti a suonare la campana a morto.
L'unico barlume di speranza per un migliore supporto software per multi-GPU era DX12 e Vulkan, che si vantavano un supporto multi-GPU così potente che potresti persino utilizzare più GPU di fornitori diversi in una sola gioco. Tuttavia, questo ha appena scaricato il lavoro che Nvidia e AMD facevano nelle mani degli sviluppatori, che non l'hanno fatto guadagnare qualcosa supportando la tecnologia multi-GPU, soprattutto da quando Nvidia e AMD la stavano introducendo fuori. Quindi, il lato software delle cose non ha funzionato neanche per i giochi multi-GPU.
I giocatori semplicemente non avevano bisogno di configurazioni multi-GPU di fascia alta
Anche se le cose sul lato hardware e software dell'equazione avessero funzionato, i giochi multi-GPU avrebbero potuto essere condannati semplicemente perché erano eccessivi. Anche l'HD 5970 è stato descritto come eccessivo, e questo era solo con due chip GPU di fascia media. Tuttavia, il multi-GPU era abbastanza popolare da andare avanti per anni, ma penso che il suo destino sia stato deciso da un singolo evento: il lancio della GTX 1080 nel 2016.
La serie GTX 10 di Nvidia era in realtà solo la serie GTX 9 sul nuovissimo 16nm di TSMC, ma questo da solo era un grosso problema poiché Nvidia aveva trascorso tre intere generazioni su 28nm a causa di il declino della legge di Moore. Passando da 28 nm a 16 nm, la GTX 1080 è stata oltre il 50% più veloce della GTX 980 e il 30% più veloce della GTX 980 Ti. Il 1080 supportava anche SLI e il suo TDP era relativamente basso a 180 W, ma le prestazioni grezze con un singolo 1080 erano pazzesche in 2016.
Mentre i giochi per PC che utilizzano più grafiche sembrano non tornare mai più, la porta per il multi-GPU è in realtà aperta.
Questo è stato ulteriormente migliorato con la GTX 1080 Ti l'anno successivo, aumentando le prestazioni di quasi un altro 30%. Un singolo 1080Ti era quasi il doppio più veloce di un 980 Ti e sarebbe stato sicuramente una soluzione superiore a due 980 Ti in SLI. Nessuno sano di mente vorrebbe davvero due 1080 Ti in SLI, non solo perché sarebbe stato caldo e rumoroso, ma anche perché il doppio delle prestazioni di un 1080 Ti sarebbe stato completamente eccessivo (e anche non fattibile per la maggior parte dei giochi con SLI ufficiale supporto). Immagina quanto sarebbe folle avere due RTX 4090 in SLI.
I giochi multi-GPU potrebbero tornare
Mentre i giochi per PC che utilizzano più grafiche sembrano non tornare mai più, la porta per il multi-GPU è in realtà aperta. Se hai familiarità con le CPU di AMD, saprai che i suoi chip desktop di fascia alta e tutte le sue CPU per workstation e server utilizzano più chip CPU insieme invece di una grande CPU. L'utilizzo di molti chip più piccoli (noti anche come chiplet) è una tecnologia che AMD ha iniziato a utilizzare nel 2019, anche se solo nel 2022 ha iniziato a utilizzare i chiplet per le sue GPU con l'introduzione della RX 7000 di fascia alta serie.
Le schede RX 7000 come la RX 7900 XTX, tuttavia, hanno solo più cache e chiplet di memoria e utilizzano un singolo chip GPU. Tuttavia, c'è motivo di credere che AMD potrebbe iniziare a utilizzare più chiplet grafici poiché si ridurrebbe costi di sviluppo e produzione, semplificando anche la creazione di nuove schede (basta aggiungere o rimuovere un chiplet e bam, nuova GPU). Anche Intel potrebbe andare nella stessa direzione poiché anch'essa sta passando ai chiplet.
Anche se sembra che Nvidia non abbia assolutamente alcun interesse per i chiplet, sarebbe sorprendente se AMD e Intel non fossero interessate a riportare multi-GPU con chiplet. Forse vedremo il ritorno dei giochi multi-GPU con la tecnologia moderna nei prossimi anni se funzionerà abbastanza bene.