Tener dos o más GPU solía ser el pináculo de los juegos de PC, pero ahora es cosa del pasado. ¿Qué pasó?
Hasta mediados de la década de 2010, las PC para juegos más rápidas usaban múltiples tarjetas gráficas, generalmente dos, pero a veces hasta cuatro. Entonces, algunos de los mejores tarjetas graficas para juegos usó dos chips GPU en lugar de solo uno, lo que ayudó con la consolidación. Las tecnologías multi-GPU SLI de Nvidia y CrossFire de AMD se consideraban la cúspide de cualquier PC para juegos de gama alta y podían llevar su experiencia de juego al siguiente nivel.
Hoy en día, las GPU múltiples son cosa del pasado, prácticamente una reliquia en el mundo de las computadoras. El hecho de que la mayoría de las nuevas GPU de hoy en día ni siquiera sean compatibles con SLI o CrossFire es sin duda un problema, pero la La popularidad de las GPU múltiples estaba cayendo mucho antes de que Nvidia y AMD las descontinuaran. tecnologías Esta es la historia de los juegos multi-GPU y por qué no resistieron la prueba del tiempo.
Una breve historia de las GPU múltiples, desde 3dfx hasta su declive
Si bien las tarjetas gráficas modernas surgieron a principios de la década de 2000 a partir de la rivalidad entre Nvidia y AMD, hubo muchos más jugadores durante la década de 1990. Una de esas empresas fue 3dfx Interactive, que produjo la nostálgica línea de tarjetas gráficas Voodoo. Para obtener una ventaja competitiva, la empresa decidió que dos tarjetas gráficas podían ser mejores que una y, en 1998, introdujo su tecnología Scan-Line Interleave (SLI). Fue un movimiento bastante genial por parte de 3dfx, ya que alentó más ventas de GPU y disuadió a los propietarios de Voodoo de cambiar a otra tarjeta.
Sin embargo, SLI se introdujo justo cuando 3dfx se dirigía a la bancarrota, y la empresa finalmente fue adquirida por Nvidia, que obtuvo los derechos de propiedad intelectual de todo lo que 3dfx poseía. Multi-GPU dejó de existir brevemente después de la adquisición de 3dfx, pero Nvidia reintrodujo SLI (cambiando el nombre oficial a Scalable Link Interface) en 2004 con su serie GeForce 6. Esencialmente funcionó de la misma manera que antes: agregue más GPU, obtenga más rendimiento. Pero hubo algunas innovaciones con la versión de Nvidia.
Mientras que el antiguo SLI de 3dfx tenía cada GPU procesando una línea de píxeles uno a la vez (la "línea de escaneo" en SLI), el de Nvidia El nuevo SLI introdujo dos nuevos métodos de renderizado: renderizado de fotogramas divididos (SFR) y renderizado de fotogramas alternativos (AFR). Con SFR, cada GPU renderiza una parte de un solo cuadro, no dividiendo el cuadro por la mitad, sino dando a cada GPU una porción igualmente intensiva para renderizar. AFR, por otro lado, hace que cada GPU produzca un cuadro a su vez. Si bien SFR es excelente para reducir la latencia, AFR tiende a obtener el máximo rendimiento, aunque con un ritmo de cuadros y tartamudeos mucho más pobres.
De manera similar, en 2005, ATI (que pronto sería adquirida por AMD) introdujo su propia tecnología multi-GPU, llamada CrossFire, pero al principio fue un poco complicado. Con las tarjetas 3dfx y Nvidia, todo lo que necesitaba eran dos de la misma GPU y un cable o puente para conectar ellos, pero CrossFire requería que comprara una tarjeta "maestra" especial además de una tarjeta gráfica regular tarjeta. Luego, en lugar de usar un puente, usó un extraño cable DVI que se conectó a ambas tarjetas. Baste decir que la primera generación de CrossFire fue mal ejecutada. No ayudó que, en ese momento, sus GPU no fueran sorprendentes.
Pero CrossFire realmente se hizo realidad con la introducción de Radeon 3000 de AMD (anteriormente ATI). serie, que contó con la Radeon HD 3870 X2, la primera tarjeta gráfica del mundo con dos chips GPU en él. AMD fue muy lejos con todo este concepto de doble GPU; sus chips de las series Radeon 4000 y 5000 eran bastante pequeños, por lo que las tarjetas gráficas de doble GPU tenían mucho sentido. El HD 5970 en 2009, una de las mejores GPU de AMD de todos los tiempos, a menudo se describía como demasiado rápido para ser factible. Después de esto, Nvidia también comenzó a fabricar sus propias tarjetas de doble GPU.
Sin embargo, después de este punto, la popularidad de las GPU múltiples comenzó a decaer. Nvidia abandonó el concepto de doble GPU para sus GPU principales después de la GTX 690 en 2012 y lo abandonó por completo después de la GTX Titan Z en 2014. Nvidia hizo SLI exclusivo solo dos años después para sus GPU GTX 1070, 1080 y 1080 Ti, y también redujo el soporte de cuatro tarjetas gráficas a dos. SLI estuvo en soporte vital después de esto, pero finalmente se eliminó en 2020 con el lanzamiento de la serie RTX 30, de la cual solo el 3090 admitía SLI. Pero eso no importó ya que Nvidia dejó de admitir controladores SLI a partir de 2021.
Mientras tanto, AMD siguió fabricando tarjetas de doble GPU durante años, y solo se detuvo con Pro Vega II en 2019, que era una tarjeta exclusiva de Apple Mac. AMD incluso dijo que dos RX 480 en CrossFire eran una buena alternativa a la GTX 1080 de Nvidia en 2016. Sin embargo, AMD finalmente renunció a CrossFire después del lanzamiento de RX Vega en 2017, que fue la última tarjeta AMD compatible. Parece que AMD también dejó de fabricar controladores con compatibilidad con CrossFire por juego en algún momento de 2017.
Las muchas razones por las que se extinguieron las GPU múltiples
Los juegos multi-GPU llegaron y se fueron bastante rápido, considerando todas las cosas. Solo fue una fuerza significativa después de 2004 con SLI y CrossFire, pero para la década de 2010, ya estaba en declive. En última instancia, fue la dirección que tomaba la industria gráfica y cómo los jugadores encontraron soluciones de GPU únicas mucho más atractivas lo que sonó la sentencia de muerte.
Las GPU se hacían más grandes con cada generación y finalmente superaron a las múltiples GPU.
Cuando 3dfx introdujo SLI, las tarjetas gráficas eran dispositivos diminutos con un consumo de energía muy bajo, nada parecido a los gigantes que vemos hoy. Los chips gráficos tendían a tener unos 100 mm2 de tamaño en los 90 y principios de los 2000, pero todo esto cambió cuando ATI lanzó su La serie Radeon 9000, que presentaba un chip de más de 200 mm2, el doble del tamaño de cualquier cosa que el mundo haya visto antes. Esto inició una carrera armamentista de GPU que ATI/AMD y Nvidia siguieron escalando con cada generación.
La cuestión es que los chips más grandes requieren más energía y una mejor refrigeración, y aunque el mayor consumo de energía no afectó realmente las configuraciones de múltiples GPU al principio, finalmente resultó ser un problema importante. Incluso desde la GTX 480, las tarjetas gráficas habían llegado a la marca de 250 W, y dos 480 en SLI consumían una cantidad increíble de energía. Si bien AMD puso un énfasis significativo en las GPU múltiples con sus series HD 4000 y 5000, en realidad fue solo porque necesitaba algo de gama alta para ir en contra de los 480 y 580 de Nvidia ya que los chips gráficos de AMD eran demasiado de gama media.
Desde finales de la década de 2000, casi todos los productos insignia fabricados por Nvidia y AMD consumieron al menos 200 W, a menudo 250 W. Puede que no sea una coincidencia que la última tarjeta principal de doble GPU de Nvidia, la 690, usara dos chips GTX 680, que tenían un TDP de solo 195 W. El simple hecho de que las GPU individuales fueran cada vez más grandes y mejores hizo que SLI y CrossFire fueran más difíciles y menos atractivo para los usuarios, que generalmente no querían que su PC para juegos fuera también un calentador de espacio y un jet motor.
Multi-GPU tenía errores y requería que los desarrolladores, Nvidia y AMD invirtieran recursos en él
Las tendencias de hardware eran un problema para la viabilidad de múltiples GPU, al igual que las tendencias de software. Cuando se introdujo SLI por primera vez, los juegos eran mucho más simples e incluso los mejores juegos de 2004, como vida media 2, son bastante normales en comparación con los juegos de hoy, aunque podemos apreciar lo geniales que eran cuando salieron. SLI y CrossFire requerían que Nvidia y AMD crearan optimizaciones especiales para múltiples GPU en sus controladores para lograr un buen rendimiento y, en ese entonces, esto no era gran cosa.
Pero con el tiempo, los juegos (y, por extensión, las GPU) se volvieron más complicados y cada año era más difícil optimizarlos. Incluso en títulos que tenían soporte oficial para múltiples GPU, la experiencia a menudo era insatisfactoria debido a errores o un rendimiento más bajo de lo normal. Por un breve tiempo en 2016, tuve dos Radeon R9 380 y cuando jugué el brujo 3, A menudo veía fallas gráficas extrañas que a veces incluso tapaban características importantes como las entradas a las cuevas, lo que hacía que el juego no solo fuera peculiar sino que tuviera errores hasta el punto de que no se podía jugar.
En última instancia, fue la dirección que tomaba la industria gráfica y cómo los jugadores encontraron soluciones de GPU únicas mucho más atractivas lo que sonó la sentencia de muerte.
El único atisbo de esperanza de un mejor soporte de software para múltiples GPU fue DX12 y Vulkan, que presumían soporte multi-GPU tan poderoso que incluso podría usar múltiples GPU de diferentes proveedores en una sola juego. Sin embargo, esto simplemente descargó el trabajo que solían hacer Nvidia y AMD en manos de los desarrolladores, que no puede ganar cualquier cosa al admitir la tecnología multi-GPU, especialmente porque Nvidia y AMD la estaban eliminando gradualmente afuera. Por lo tanto, el lado del software tampoco funcionó para los juegos con múltiples GPU.
Los jugadores simplemente no necesitaban configuraciones multi-GPU de gama alta
Incluso si las cosas en el lado del hardware y el software de la ecuación funcionaran, los juegos multi-GPU podrían haber estado condenados simplemente porque eran excesivos. Incluso la HD 5970 se describió como exagerada, y eso fue solo con dos chips GPU de rango medio. Aún así, la GPU múltiple fue lo suficientemente popular como para continuar durante años, pero creo que su destino se decidió por un solo evento: el lanzamiento de la GTX 1080 en 2016.
La serie GTX 10 de Nvidia era en realidad solo la serie GTX 9 en el nuevo 16nm de TSMC, pero eso solo fue un gran problema ya que Nvidia había pasado tres generaciones enteras en 28nm debido a el declive de la ley de Moore. Al pasar de 28 nm a 16 nm, la GTX 1080 fue un 50 % más rápida que la GTX 980 y un 30 % más rápida que la GTX 980 Ti. El 1080 también admitía SLI y su TDP era relativamente bajo a 180 W, pero el rendimiento bruto con un solo 1080 era una locura en 2016.
Si bien los juegos de PC que usan múltiples gráficos aparentemente nunca volverán, la puerta para múltiples GPU está realmente abierta.
Esto se mejoró aún más con la GTX 1080 Ti al año siguiente, aumentando el rendimiento en casi otro 30 %. Un solo 1080Ti era casi el doble de rápido que un 980 Ti y ciertamente habría sido una solución superior a dos 980 Ti en SLI. Nadie en su sano juicio querría realmente dos 1080 Tis en SLI, no solo porque habría sido caliente y ruidoso, sino también porque el doble del rendimiento de un 1080 Ti habría sido completamente exagerado (y tampoco factible para la mayoría de los juegos con SLI oficial) apoyo). Imagina lo loco que sería tener dos RTX 4090 en SLI.
Los juegos multi-GPU podrían regresar
Si bien los juegos de PC que usan múltiples gráficos aparentemente nunca volverán, la puerta para múltiples GPU está realmente abierta. Si está familiarizado con las CPU de AMD, sabrá que sus chips de escritorio de gama alta y todas sus CPU para estaciones de trabajo y servidores usan varios chips de CPU juntos en lugar de una gran CPU. El uso de muchos chips más pequeños (también conocidos como chiplets) es una tecnología que AMD comenzó a usar en 2019. aunque solo en 2022 comenzó a usar chiplets para sus GPU con la introducción del RX 7000 de gama alta serie.
Las tarjetas RX 7000 como la RX 7900 XTX, sin embargo, solo tienen múltiples chips de caché y memoria, y usan un solo chip GPU. Aún así, hay razones para creer que AMD podría comenzar a usar múltiples chipsets de gráficos, ya que reduciría costos de desarrollo y producción al mismo tiempo que simplifica la creación de nuevas tarjetas (simplemente agregue o elimine un chiplet y bam, nueva GPU). Intel también podría ir en la misma dirección, ya que también está haciendo la transición a los chipsets.
Si bien parece que Nvidia no tiene absolutamente ningún interés en los chiplets, sería sorprendente que AMD e Intel no estuvieran interesados en traer de vuelta múltiples GPU con chiplets. Quizás veamos el regreso de los juegos multi-GPU con tecnología moderna en los próximos años si puede funcionar lo suficientemente bien.