La revolución necesaria del DLSS

Para jugar a 1080p me bastaba con la Nvidia Geforce GTX 1060 3GB de Gigabyte que conseguí poco después de terminar el montaje de mi nuevo ordenador de sobremesa; pero no es menos cierto que desde el principio tuve el ojo puesto en la gama RTX para poder subirme al carro de una tecnología que en tiempos me hubiera parecido de ciencia-ficción: el DLSS, iniciales de Deep Learning Super Sampling.

La relación resolución / potencia de cálculo

Muy a grandes rasgos y a nivel muy muy básico, una tarjeta gráfica necesita más potencia cuantos más pixels tiene que dibujar en pantalla. A una resolución de 1080p son 2073600 pixels. A 1440p serían 3686400, a K4 nos iríamos a 8294400 y, por último, a 8K serían 33177600 pixels.

Pensad ahora que esos son los pixels necesarios para dibujar un sólo frame en pantalla, y si estamos jugando algo que requiera un mínimo de acción querremos que la imagen se refresque, al menos, 60 veces cada segundo para no tener sensación de discontinuidad en la animación, que es algo que saca del juego (y de quicio) a cualquiera.

Si tomamos el ejemplo de resolución 4K, en el que decíamos que la pantalla a dicha resolución se compone de 8294400 pixels y lo multiplicamos por 60, tenemos que la tarjeta gráfica tiene que calcular cada segundo la friolera de 497664000 pixels. ¡Eso son casi quinientos millones de pixels en un sólo segundo! ¡¡¡QUINIENTOS MILLONES!!!

Obviamente, para poder mover semejante cantidad de datos la potencia bruta y la velocidad de proceso de la tarjeta gráfica han de ser tremendas, porque los pixels no son sólo cuadrados de colores sin más; sino que hasta decidir su aspecto previamente llevan una rutina de posicionado, trazado de vértices, texturizado, sombreado… Y no digamos ya si emplean técnicas de iluminación mediante raytracing ¿Empezáis a entender por qué las tarjetas de gama alta cuestan lo que cuestan, abultan lo que abultan y se calientan como se calientan?

De cualquier modo, cuando se pasó de FullHD (1080p) a la resolución de 1440p los fabricantes se dieron cuenta de que la potencia necesaria para dar el salto a cada siguiente resolución se iba incrementando a un ritmo exponencial que el desarrollo de las tecnologías gráficas clásicas no iba a ser capaz de seguir. Se imponía por tanto buscar una solución que no fuera simplemente meter potencia bruta sin más, ya que con el 4K empezando a proliferar y el 8K en el horizonte no es posible disponer de tal potencia de cálculo en una tarjeta que de momento ha de entrar en la caja de un PC.

Buscando alternativas a la potencia pura y dura

Y así es cómo en Nvidia empezaron a dar vueltas a la idea de crear unos algoritmos de escalado dinámico que permitieran renderizar internamente a una resolución inferior para en un último paso resamplear a resoluciones más altas sin apenas pérdida de calidad. Y es que ahí está la clave de todo: podéis coger el Paint, abrir una imagen de 80 x 120 pixels y subirle la resolución todo lo que queráis, pero los píxeles tendrán el tamaño de un melocotón y el resultado será, como mínimo, decepcionante.

Lo alucinante del DLSS es que realmente la pérdida de calidad es muy pequeña para lo mucho que baja la resolución internamente el algoritmo. Por ejemplo, si vamos a jugar en 4K (2160p) y elegimos el modo llamado «Calidad» internamente renderizará a 1440p. Si elegimos el modo «Equilibrado» lo hará en 1253p, mientras que el modo «Rendimiento» lo hará a 1080p y el «Rendimiento Ultra» a 720p. Y sí que es verdad que en este último caso se nota pérdida de calidad sobre todo en los detalles más finos como el pelo de Lara Croft en Shadow of Tomb Raider o las estructuras metálicas finas lejanas en Cyberpunk 2077, pero si elegimos los modos «Calidad» o «Equilibrado» realmente apenas notaremos diferencia con la resolución original y la tasa de frames por segundo se incrementará considerablemente.

Hubo una primera versión que funcionaba en juegos muy específicos y era algo limitada, pero poco a poco la tecnología ha ido evolucionando y a día de hoy estamos ya en la versión 2.0 del DLSS que ofrece mejores prestaciones y una implentación en los títulos más sencilla para los desarrolladores. Hasta tal punto es así que algunos títulos que ya empleaban la primera versión del algoritmo se han actualizado para hacer uso de la versión actual.

Los detalles de cómo funciona el DLSS son bastante complejos, ya que se basa en una red neuronal que utilizando imágenes de muy alta y baja resolución del juego que Nvidia carga en sus servidores aprende cómo rellenar los huecos y desajustes que ocurren cuando se resamplea «a las bravas» una imagen y esta información la acaban volcando en los drivers gráficos que actualizan un par de veces al mes más o menos. Obviamente no os voy a dar el tostón aquí con tantos detalles tećnicos, pero si os interesa el tema os recomiendo echar un vistazo a algunos artículos (casi siempre en inglés) donde tocan en tema de forma bastante profunda.

Está claro que este post-procesado requiere una potencia de cálculo importante en la tarjeta gráfica, pero a la vista de los resultados, las unidades que computan estos algoritmos (los llamados Tensor Cores en las dos últimas familias de tarjetas gráficas de Nvidia RTX20 y RTX30) lo hacen bastante más rápido que si desactivamos el DLSS; lo cual me parece sencillamente alucinante. Que sea más fácil para la tarjeta «inventarse» parte de los pixels de la imagen que calcularlos y que además el resultado final sea tan bueno es algo que la primera vez que vi me sorprendió muchísimo.

DLSS en pruebas sintéticas: 3DMark

Para mostraros esto de una forma gráfica (nunca mejor dicho) he pasado el test específico de DLSS que incorpora la última versión de 3D Mark, el cual dicho sea de paso, es una pasada a nivel visual. Y es que, de hecho, 3DMark siempre ha sido la referencia para los gráficos más punteros, acordándome ahora mismo de la mítica demo de la versión del año 2000 que ejecutaba en mi AMD K6-2 de la época al que le puse una Voodoo Banshee con 16 MB de VRAM.

Volviendo al test de DLSS, en primer lugar aquí tenéis el resultado de pasar el test a una resolución de 1080p con mi Nvidia Geforce RTX 2060. La primera parte es sin DLSS y la segunda aplicando el algoritmo en modo «Calidad», haciendo que apenas haya diferencias gráficas entre uno y otro test.

Como podéis ver, sin aplicar DLSS obtenemos unos 32 FPS, y con el modo «Calidad» la media es de casi 58 FPS que es  un 80% de ganancia de rendimiento (casi el doble).

En caso de aplicar el modo «Rendimiento» en la misma resolución de antes perderemos algo de calidad gráfica en algunos detalles finos pero ganaremos unos cuantos FPS.

En esta ocasión hemos pasado de los 32 FPS al no aplicar DLSS a una tasa de prácticamente 76 FPS, lo que representa una ganancia de rendimiento del 135%.

DLSS en la práctica: Shadow of Tomb Raider

Vamos a ver ahora esto mismo pero aplicado a un juego comercial como es el Shadow of Tomb Raider dado que nos permite usar todos los modos de DLSS disponibles y así como, logicamente, prescindir de él. Se ha ejecutado en el mismo equipo que la prueba del 3DMark.

En las siguientes imágenes podéis ver, de arriba a abajo, cómo influye en la tasa de cuadros por segundo no emplear DSLL o ir usando respectivamente los modos Calidad, Equilibrado, Rendimiento y Rendimiento ultra, manteniendo en todos los casos la calidad gráfica del juego en el máximo y la resolución a 1080p.

¿Veis a lo que me refiero? Emplear DLSS hace que tengamos más FPS a costa de una apenas perceptible pérdida de calidad de imagen, de modo que es un recurso valioso que nos permitirá estirar un poco más la vida útil de nuestra tarjeta gráfica antes de plantearnos dar el salto a un modelo superior porque ya no da más de si.

Ahora bien, espero que con esto los desarrolladores no empiecen a optimizar los juegos malamente pensando que si va lento con que los usuarios activen el DLSS ya está todo arreglado, porque entonces estamos en las mismas al compensar una ventaja con una desventaja. El DLSS es un inventazo, pero yo lo entiendo como un modo de que gente que no tiene una tarjeta de gama alta pueda jugar a resoluciones y/o niveles de detalle que «de serie» no podrían alcanzar.

Que este tipo de tecnologías van a ser de un uso cada vez más general lo demuestra el hecho de que recientemente AMD ha sacado su algoritmo FidelityFX Super Resolution y que Intel, que ahora se va a subir también al carro de las tarjetas gráficas con sus modelos Arc, va a emplear una tecnología similar llamada XeSS. Está claro que esta era una revolución necesaria.

La tarjeta gráfica más cara no siempre es la mejor opción

En la fase de planificación de mi nuevo ordenador de sobremesa estuve mirando muchos modelos de tarjetas gráficas, lo que me hizo darme cuenta de una cosa: tener la última gráfica tope de gama del mercado conlleva un elevado coste que no estoy seguro de que merezca la pena acometer.

Esto es algo que me gustaría ir desgranando a lo largo de este artículo y para ello empezaré usando una tabla en la que os muestro los datos del «estudio de mercado» que hice en el mes de diciembre para luego ir viendo todo de un modo mucho más visual.

Como podéis ver en la primera fila, la tarjeta gráfica de mi anterior ordenador (una AMD Radeon HD6540) daba unos miserables 199 puntos en el test de rendimiento que la gente de Passmark realiza a todos los modelos que incluyen en su base de datos. Obviamente la opción de quedarme con ella estaba completamente descartada desde el momento que me planteé usar el ordenador para jugar a cualquier cosa aparecida en los últimos diez años y, por tanto, a partir de ahí se abría un amplio abanico de posibilidades.

Si os ha tocado el euromillones está claro: iréis a por una RTX 3090 (o dos, configuradas en modo SLI) y santas pascuas. Sin embargo, al común de los mortales nos toca buscar un punto de equilibrio entre precio y prestaciones; algo que también nos tocará hacer al comprar un coche, una casa o un teléfono móvil.

Ordenando los modelos por rendimiento puro y duro en una gráfica de barras podemos ver que el incremento de potencia es prácticamente lineal entre las diferente tarjetas de las últimas cuatro generaciones de Nvidia (GTX 10, GTX 16, RTX 20 y RTX 30) por lo que a no ser que haya un cambio de paradigma muy radical en la concepción de las futuras tarjetas gráficas casi podremos calcular cuánto van a rendir los modelos de la marca que van a aparecer durante los próximos meses. Mi apuesta es que una hipotética serie RTX 40 saldrá de aquí a un año y sus rendimientos andarán entre los 25000 y 30000 puntos según se posicione el modelo dentro de la gama. Y, salvo sorpresa, no creo que me vaya a desviar mucho; el tiempo lo dirá.

El compromiso entre precio y aumento de prestaciones

Vamos ahora a hacer un pequeño estudio de costes y rendimiento en los siguientes párrafos para tratar de que veáis la idea principal de este artículo de una forma práctica.

Mi tarjeta actual es una GTX 1060 3GB, que ronda los 10000 puntos y esto representa un rendimiento 50 veces mayor que la Radeon HD6540 que tenía mi antiguo ordenador (aproximadamente un 5000% más de rendimiento) y por ella tendremos que pagar unos 200 euros.

Si quiero saltar al que ahora mismo es el modelo más básico de la serie RTX 30 tendré que irme a una 3060 Ti, que tiene un rendimiento de unos 20000 puntos, que es el doble que mi tarjeta actual (100% más de rendimiento que la GTX 1060 3GB). Sin embargo, para dar el salto tendré que aflojar unos 480 euros según estuve viendo hace un par de meses.

Supongamos que me vengo un poco arriba y decido que voy a pegar el salto a una RTX 3080, que saca una puntuación de 24000 puntos, lo que representa un 20% más que la 3060 Ti pero para ello ya tengo que gastarme unos 1000 euros.

Y en el caso extremo de que se me vaya por completo la cabeza y me quiera ir al tope de gama actual, la RTX 3090, voy a tener un rendimiento ligeramente por encima de los 25000 puntos (un 5% más que la 3080) pero para hacerme con una voy a tener que soltar la friolera de 2000 euros. Este caso es el más extremo del ejemplo y representa muy bien lo que os decía al principio: que tener lo último de lo último sólo representa un 5% más de rendimiento sobre el modelo inmediatamente inferior pero también implica un sobrecoste de 1000 euros con respecto a éste.

Antes vistéis antes una gráfica en la que ordenaba los modelos por su rendimiento teórico, y ahora vamos a verlas en el mismo órden, pero lo que muestro en esta ocasión es su precio aproximado de primera mano en tiendas de España.

Algo que llama la atención en esta imagen es que los modelos de las últimas series acabados en 80 salen por unos 1000 euros, representando estos el tope de gama de cada generación. Sin embargo, aunque ahora el tope de gama de las RTX 30 es la 3090 y eso se nota también en su disparatado precio de venta, la 3080 sigue en esa línea de flotación de los 1000 euros. Si os fijáis, las tarjetas acabadas en 70 suelen rondar los 500 euros, de tal modo que parece claro que Nvidia tiene estipulado que cada subida de escalón dentro de una misma serie implica una duplicación de su precio. Lo que pasa es que esto no conlleva ni mucho menos una subida de prestaciones en la misma proporción.

La virtud está en el punto medio

La magia sucede cuando combinamos ambas tablas para obtener un ratio que nos indica cuántos puntos de rendimiento sacamos por cada euro invertido en la tarjeta gráfica; y en este caso vamos a ver que, en general, los extremos son los que menos interesan para un usuario medio como puedo ser yo. Los modelos de la parte baja son económicos pero tienen poco rendimiento; mientras que los de la parte alta tienen mucho rendimiento pero a medida que nos vamos hacia la derecha el precio se dispara y por tanto el ratio cae.

Por tanto, una vez más, tenemos que tener muy claro qué es lo que necesitamos. Una RTX 2060 sería un modelo que nos permitiría a día de hoy mover cualquier juego actual en FullHD por poco más de 400 euros, por lo que sería un poco absurdo gastarnos los 2000 eurazos de una 3090 si no vamos a emplear un monitor 4K que nos permita mover los juegos a esa resolución (son 4 veces más pixels que la resolución FullHD, y eso requiere un montón de potencia de proceso adicional).

Del mismo modo, no debemos dejar de lado que el microprocesador, la memoria RAM o incluso el disco duro también nos van a limitar a la hora de mover los juegos con soltura porque no todo es cuestión de tarjeta gráfica. Y es que supongo que a nadie se le ocurrirá montar una RTX 3080 en un Celeron, con 2 GB de RAM DDR3 y un disco duro mecánico de 5400 RPM; porque en ese caso la gráfica renderizará un fotograma en pantalla para luego estar un buen rato esperando a que el resto de los componentes (que irán absolutamente asfixiados) sean capaces de mandar a la tarjeta gráfica los datos del siguiente, por lo que no aprovecharemos para nada el potencial que esta podría ofrecer y podríamos haber puesto una tarjeta mucho más barata obteniendo unas prestaciones prácticamente iguales.

En definitiva, mis dos recomendaciones a la hora de elegir una nueva tarjeta gráfica es que penséis si os merece la pena pagar un fuerte incremento de precio por apenas un poco más de rendimiento y que compréis algo acorde a vuestro hardware para poder sacarle todo el partido a vuestra nueva adquisición.

Pensad que a lo mejor merece más la pena gastar 1000 euros cada dos años que 2000 cada cuatro porque, al fin y al cabo, el salto de rendimiento entre modelos intergeneracionales similares es mayor que el siguiente escalón dentro de la misma serie. Además, una tarjeta recién sacada al mercado siempre va a recibir más atenciones por parte del fabricante que un modelo de una gama que ya va a ser descatalogada y para la que como mucho sacarán alguna actualización de drivers puntual.

En cualquier caso, todo esto estaría muy bien si todos los modelos que hemos visto a lo largo del artículo estuvieran plenamente disponibles; pero la realidad es que por diversos motivos actualmente la escasez de tarjetas gráficas en el mercado es brutal y las pocas que salen a la venta que no sean de gama baja duran literalmente segundos en stock.

En mi caso particular, una RTX 3060 Ti podría ser una muy buena opción y es a lo que apunto en un futuro; pero dado que en los próximos meses va a ser prácticamente imposible hacerse con una, como os decía antes he conseguido una GTX 1060 3GB de segunda mano que me está dando muy buen resultado con todo lo que estoy jugando actualmente en mi recién estrenado PC (Ryzen 5 3500X, MB B450, 16 GB RAM DDR4 3000, SSD M.2).

¡Nos leemos!

Actualización 25-02-2021

Ahora que ha salido oficialmente la RTX 3060 (de la que no hay stock en ningún sitio, tal y como se esperaba) os pongo una tabla con las puntuaciones de GPU Passmark de toda la gama GTX y RTX de Nvidia, pues es una forma muy visual de ver cómo han ido evolucionando los diferentes modelos. En las columnas están las diferentes series que han ido apareciendo y en las filas la gama a la que pertenece cada modelo.