Este pasado año ha sido de todo menos habitual para Nvidia. Tras presentar su nueva arquitectura Turing el pasado mes de agosto, la estrenó poco después con las nuevas gráficas en la gama más alta para consumo de 2018. Anunciadas las GeForce RTX 2070, 2080 y 2080 Ti, tenía más que cubierta la parte superior del mercado aunque precios en el camino a lo prohibitivo. A falta de un relevo para la gama media y para tapar este hueco se anunciaba la pasada semana la GeForce RTX 2060 Founders Edition. Hemos podido probarla y este es nuestro análisis.Con esta gráfica, Nvidia viene a sustituir a la superventas de la pasada generación. La GTX 1060 funcionó tan bien como producto que se sitúa de forma indiscutible en lo más alto de las listas de uso de Steam. De la mano, y a pesar de que el juego en altas resoluciones es más accesible con cada generación que aterriza, el Full HD sigue dominando de una forma apabullante. En parte es esto lo que justifica al fabricante para tomar un camino que diverja de la idea de que el aumento de resolución es el único camino a mejores gráficos.

Turing es la nueva arquitectura de Nvidia. Evoluciona enormemente sobre Pascal, el diseño anterior de tarjetas gráficas de consumo. Entre medias estuvo Volta, aunque solo llegó a la línea compute de Nvidia, donde introdujo algunos de cambios que vemos hoy en la serie RTX 20. ¿Su responsable? Los procesadores Turing SM, que suponen el mayor paso hacia delante desde que Nvidia presentara los núcleos CUDA en 2006, hace ya más de una década.

Respecto a las anteriores GTX 1080 y compañía, las nuevas gráficas merecen por tanto un cambio de nomenclatura. Con la marca RTX, Nvidia quiere hacer ver lo profundos que estos cambios son. Con ella, abraza el renderizado híbrido, y es precisamente ahí donde entra en juego el reputado ray tracing en tiempo real, la gran promesa gráfica de esta generación no sólo a nivel de hardware, sino también en la industria del videojuego. Pasando de puntillas por la teoría, veamos en qué consiste.

Ray Tracing, la magia de Nvidia

*Ray tracing* es, básicamente, simular la escena por ordenador de forma que la luz viaja desde las fuentes a al punto donde se situaría la 'cámara'. Así es como se realizan los renders en alta calidad de la industria audiovisual. A pesar de las optimizaciones que se pueden implementar a distintos niveles, este proceso es tremendamente costoso a nivel computacional. Es por esto que hasta ahora nos habíamos conformado con la rasterización, que es la técnica que permite proyectar un mapa vectorial en 3D sobre una imagen plana y que, por economía de los recursos disponibles y por ser muy eficiente, es la que había dominado de forma exclusiva el mercado del videojuego.

Pero la rasterización tiene sus límites a la hora de computar los algunas de las características de la luz. Aspectos como la oclusión ambiental o las sombras, reflexiones, refracciones de la luz se lo ponen difícil a esta técnica, que aumenta su ineficiencia fuertemente con la fidelidad exigida. Es por esto que nos encontrábamos en una senda de difícil acceso: estábamos viendo mejorado el realismo a través de mayores resoluciones, tasas de refresco y mejores texturas. Todo esto, por supuesto, impone una mayor tarea a las gráficas convencionales.

Es por ello que Nvidia se baja del carro. O más bien, reparte sus huevos entre distintas cestas. Turing incorpora, frente a la anterior generación de consumo –Pascal–, dos grandes elementos que discuten la distribución del silicio dentro de los núcleos de la GPU como tal:

- RT Cores. Son los núcleos para ray tracing. Su arquitectura integrada está específicamente diseñada para que aunque el trazado de rayos sea excesivamente costoso, lo sea menos y así permita utilizar unos pocos para superponer una capa de iluminación a la imagen generada por rasterización.

- Tensor Cores. Al trabajar con pocos rayos, del orden de uno o dos por cada píxel generado y considerar solo la primera interacción con las superficies, la capa de iluminación es tremendamente 'sucia'. Es por esto que aquí se introducen potentes algoritmos de reducción de ruido asistidos mediante deep learning. Para estas tareas de aprendizaje máquina se utilizan estos Tensor Cores, con un rendimiento mucho mayor en tareas de IA, además del DLSS –Deep Learning Super Sampling, el sonado antialiasing de última generación–. A cambio tenemos, además, unas GPU mucho más potentes en entornos de computación donde se utilicen matrices de alta dimensionalidad, lo cual es muy común en el mundo científico.

Nvidia desarrolla una IA para eliminar el ruido en las fotos (y es espectacular)

Turing llega a la gama media

Las grandes –y costosas– GPUs de Nvidia para 2019 llevan ya unos cuantos meses entre nosotros. Es ahora cuando Nvidia se atreve con las masas de la mano de la GeForce RTX 2060. Como adelantaba, esta es una generación de gráficas que se separa completamente de lo habitual en la marca. Para esta generación, Nvidia ha presentado hasta la fecha tres diseños de GPU como tal. Uno para cada una de sus tarjetas más entusiasta. En el caso de la RTX 2060, reutiliza el modelo TU106 de la RTX 2070, aunque sensiblemente seccionado.

Es habitual que los fabricantes de chips seleccionen los que tienen un menor número de defectos para sus productos estrella. Los 'menos perfectos' no se tiran, desde luego. Se deshabilitan las partes con un comportamiento inferior y son vendidas con una etiqueta menos ambiciosa. El proceso, que se realiza tanto con CPU como con GPU de todo tipo, es conocido como bining. Esto es precisamente lo que le ocurre a la RTX 2060, que prescinde de 6 de los 36 multiprocesadores o 'bloques' Turing SM, manteniendo 30. En ellos, se conservan 1.920 de los 2.304 núcleos CUDA. O lo que es lo mismo: pierde uno de cada seis RT Core, Tensor Core y demás.

Completan el producto 6 GB de la nueva memoria GDDR6, que no es únicamente más rápida, sino que ahora viene respaldada por una compresión de memoria más eficaz. Esto permite que los anchos de banda entre la memoria y la propia GPU sean a nivel efectivo todavía mayores, lo que es importante dado que hablamos de uno de los cuellos de botella habituales en el rendimiento gráfico. En la presentación de Turing, Nvidia hablaba de hasta un 50% de mejora respecto a la generación anterior con GDDR5X.

Por supuesto, otro de los puntos críticos con cada generación de chips es su proceso de fabricación. Para las RTX series 20, la producción del silicio se encarga de nuevo a TSMC, que avanza en la miniaturización de los 16 a los 12 nanómetros. Por supuesto, este es un punto que viene a contrarrestar unos diseños ahora más grandes y más hambrientos de vatios. Todavía queda espacio, eso sí, de cara a una futura actualización con mayor eficiencia energética de la mano de los 7 nanómetros que pronto veremos en las GPU Radeon VII de AMD.

En cuanto la gráfica y su construcción, vemos que esta vez Nvidia abandona el estilo cerrado a lo blower por uno abierto en todas su línea RTX actual. Buen momento para comentar que el salto, que llega de la mano con un consumo muy superior esta vez –que pasa de 120 a 160 W–, mejora quizá materia de ruido –acústico– en la mayoría de casos. Eso sí, este tipo de diseños suelen requerir de una caja mejor ventilada, quizás no asequible en diseños más compactos.

Para su alimentación, basta un único conector de 8 pines en su parte delantera. En la trasera vemos los típicos de Nvidia para las líneas más económicas –DVI, además de dos DisplayPort y un HDMI–, con un invitado: USB C VirtuaLink para fundamentalmente realidad virtual que puede suministrar hasta 30 W, adicionales al TDP.

El modelo entre manos podríamos considerarla sin dudas como la 'gama media RTX'. Pero todavía con esas, esta pieza de hardware no encaja en el esquema habitual de precios. Con 349 dólares o 369 euros, la etiqueta parece engordar demasiado en una línea cuya pasada generación partía de los 219 euros. Como puntos de apoyo en esta transición, dos vértices:

- Nvidia apuesta por un RTX que no es un cambio de nomenclatura vacío, sino una nueva forma de entender los gráficos en la industria del videojuego a la que por fin quiere apostarlo todo. Aunque del estado actual del ray tracing hablaremos más adelante, eso es algo que las tarjetas disponibles hasta hace unos meses no podían hacer.

- El **pinchazo de la criptoburbuja minera** ha abndonado a los fabricantes con un exceso de stock al que todavía no han dado salida. Las nuevas generaciones suben de precio también para darles margen, para evitar competir con ellas y que sigan teniendo hueco y sentido en el mercado, al menos, hasta que se agoten.

Las pruebas

Para nuestras pruebas contamos con un equipo muy similar al que utilizamos para probar la anterior generación de tarjetas gráficas de mayor rendimiento, las GTX 1080 y 1080 Ti. Lo fundamental incluye un procesador Core i5 6600K de cuatro núcleos físicos y lógicos –con OC hasta los 4,4 GHz– emparejada con 16 GB de RAM DDR4, SDD Samsung 860 Evo de 500 GB, fuente de alimentación Corsair SF450 y placa base Asus Gaming Pro Z170i.

Esta configuración, sin embargo, puede no ser la ideal para algunos de los títulos más recientes o intensivos con la CPU, como la saga 'Battlefield' o 'Shadow of the Tomb Raider', por lo que como veremos en algunas de las combinaciones de ajustes acusa cierto cuello de botella ahí. Es a mayores resoluciones donde se minimiza este efecto, aunque también donde los 6 GB de VRAM de la GTX 2060 estén cerca de saturar. Por tanto, las resoluciones 1440p parecen un buen punto intermedio.

Battlefield 1 (DX12)

Comenzando por Battlefield 1 que basado en la última API DirectX nos sirve como punto de conexión con la anterior generación de gráficos. Con el preset de ajustes Ultra el rendimiento se acerca, especialmente en resoluciones grandes, al 85% del que vemos en la GTX 1080. A menores resoluciones parece que es donde ese extra de frecuencia en la CPU actual está ayudando.

Battlefield V (DX12)

*Puedes encontrar todas las imágenes de este artículo a su resolución original en esta galería.*

A pesar de que la gama alta RTX lleva en unos meses en el escaparate, 'Battlefield V' es el primer y de momento único título disponible con Ray Tracing activado bajo la opción DXR. Para hacerlo funcionar, hemos de tener tanto los drivers de Nvidia actualizados –en nuestro caso usamos la versión 417.54 para prensa–, así como la versión de Windows –con la dichosa October Update–. Podemos instalar esta última con el Windows 10 Update Assistant. Solo así podremos activar la opción DXR una vez hayamos seleccionado DX12.

Si bien resulta espectacular con según qué tipo de áreas, donde los resultados de iluminación por otros métodos palidecen, el impacto sobre el rendimiento es muy fuerte. Recorremos una escenas de unos 3 minutos de duración cada una en el modo individual, de la forma más similar posible, para comprobarlo. Si nos fijamos en el dato a 1440p, pasamos de un desempeño generoso a casi 90 FPS a rozar los 60 por abajo. No solo eso, sino que hay algo común a todas las resoluciones y calidades: el 1% de fotogramas mínimos tiene picos muy acentuados hasta los 10-12 FPS.

Nvidia afirma que próximamente EA y DICE publicarán una actualización que incorpore DLSS.

Shadow of the Tomb Raider (DX11, DX12)

Continuamos con otro de los grandes de este año, que es también otro de los que prometía Ray Tracing hace unos meses. Se trata de Shadow of the Tomb Raider, quien todavía no tiene disponible estas capacidades. No por ello es un triple-A que desmerezca a nivel gráfico. En este caso vemos que roza –el preset más alto de este juego es la configuración 'Más alta'– los 60 FPS, justo al filo del rendimiento de la CPU utilizada. A mayor resolución, la experiencia ya no es buena a ningún ajuste.

Vemos también que el rendimiento es ligeramente superior en DX12 respecto a DX11, aunque solo a resoluciones bajas se acentúe esto.

Final Final Fantasy XV: Windows Edition (DX11, DLSS)

Final Fantasy XV tiene ya un par de años, pero no por ello se queda demasiado atrás en ciertos aspectos técnicos. En esta Windows Edition, Square Enix prepara un benchmark de la mano de Nvidia con el que probar buena parte de las tecnologías más recientes. Del 4K al DLSS, pasando por el HDR10.

Concretamente es por el DLSS por lo que hemos venido aquí. Se trata del antialiasing por inferencia vía aprendizaje profundo, llamado Deep Learning Super Sampling. Este método permite 'superar' a las técnicas de antialiasing más exigentes con un modelo de red neuronal que se procesa en los Tensor Core de las GeForce RTX. En FFXV lo cierto es que se agradece y se nota este procesado. Y lo que es mejor: descongestiona el rendimiento, evitando el procesado del TAA tradicional y recuperando algunos FPS. Esto es obvio si pensamos que en el procesado habitual los Tensor Core están desocupados por completo.

Ashes of the Singularity: Escalation (DX11, DX12, Vulkan)

Ashes of the Singularity es una saga que, si bien no es tan conocida como tal, sí lo es si atendemos a la implementación de las distintas APIs disponibles. Con soporte completo tanto a DX11, DX12 y a Vulkan, hace las veces de torre de vigilancia del estado actual de estas para la generación actual de Nvidia.

Como vemos, las librerías DirectX de Microsoft en su última versión es la que se lleva un mejor rendimiento global, fundamentalmente a bajas resoluciones. Por la parte de Vulkan, no parece descolgarse demasiado tampoco.

Temperaturas, consumo y más:

Por último, unos comentarios acerca de mi experiencia tras unos días con la GeForce RTX 2060 instalada en algunos aspectos más 'périféricos'. Me llama la atención el *coil whine* que presenta esta GPU, que si bien no llega a ser molesto, es fácilmente detectable en determinadas circunstancias. No hay de qué alarmarse, se trata de un pequeño ruido, una vibración, en alguno de los componentes por los que pasa la corriente.

En cuanto a la temperatura, y aunque desde Nvidia marcan una temperatura máxima de funcionamiento de 88 ℃, en este tiempo no la he visto sobrepasar los 73 ℃ y en idle se mantiene en los 30 ℃. Esto es debido, en parte, a que hay mucho más silicio –240 Tensor Core, 30 RT Core– que es difícil exprimir completamente de forma simultánea. Es por esto que ni rastro de thermal throttling, y por tanto esos 15 ℃ dan cierto margen al overclocking con esta GPU.

En cuanto a los consumos, si bien es cierto que suben de 120 a 160 W, esto tampoco ha supuesto mayor problema en el uso diario. Incluso una caja pequeña y una fuente de alimentación de formato compacto son más que suficientes para alimentar y ventilar esta tarjeta gráfica. No ha hecho al sistema completo –con algo de overclock en la CPU, recuerdo– demandar más de 280 W en ningún momento, ni siquiera con DLSS activado.

Conclusión

La RTX 2060 es una gráfica con un rendimiento fantástico para su gama, salvando que en esta generación esta gama ha subido considerablemente su precio. Nvidia justifica esto con una nueva nomenclatura que deja atrás la G por la R de Ray Tacing. Aunque es cierto que el trazado de rayos en tiempo real luce espectacular, su alcance pasado ya un tiempo sigue siendo muy limitado.

Las grandes novedades de Nvidia en esta generación son muy llamativas para los jugadores. RT Core para *Ray Tracing y Tensor Core para computación y antialiasing* DLSS son dos grandes razones, si los títulos a los que pretendes jugar cuentan con soporte a ellas o han anunciado hacerlo.

La tecnología detrás de la serie RTX es sin duda un paso al futuro de los videojuegos. Lo que no tengo tan claro es que esté lista para la fama en una tarjeta para consumo masivo todavía, más que por rendimiento por la disponibilidad de esta. Que Nvidia apueste tan fuerte por ella hoy quizá no sea el salto que el usuario demanda sino el empujón que la industria necesita.

Pros

  • Potencial increíble. Incluso aunque no supongan una revolución jugable hoy, mueve el ecosistema hacia un sitio mejor iluminado. Combo impresionante de renderizado híbrido y deep learning. Frescura. Unas temperaturas suaves auguran rendimientos estables y con bajo nivel de ruido.

Contras

  • * Precio. En los 379 euros, olvida el precio habitual de esta línea. * Llame más tarde. Ni Ray Tracing ni DLSS son hoy características adoptadas mínimamente. Y tardarán en serlo.