Hace unas semanas, fuimos testigos en París, en las oficinas de Nvidia, del futuro más inmediato de la compañía. Más allá de su fuerte apuesta por las mejoras gráficas y la iluminación hiperrealista, vimos también cómo la compañía se acercaba a la IA desde diferentes perspectivas. Agentes dentro del juego, equipos de soporte para IA generativa, software para ayudar a editores de vídeo... la apuesta de Nvidia por la IA es clara y firme. Y no es lo único que se guardaban bajo la manga. Hemos podido acudir a la GDC en San Francisco y, no solo hemos podido repasar los hitos más cercanos de la compañía (como ese DLSS 4.5) y colaboraciones especiales, sino también soluciones para desarrolladores dentro del ámbito de la programación.
Por si fuera poco, tenían preparado un auténtico golpe de efecto con un nuevo tipo de realidad extendida, llamada merged reality (realidad fusionada). ¿Mis sensaciones? Para mucha gente, va a ser una experiencia similar a la primera vez con realidad virtual. Una forma de jugar que vuelve a hacernos soñar con las posibilidades de este tipo de propuestas.
007: First Light, un perfecto escaparate para el path tracing
Las bondades del path tracing eran particularmente visibles en las demos que desde Nvidia han seleccionado para esta ocasión. A pesar de que sigue siendo una característica muy dependiente del hardware, desde la compañía apuestan por ello como el siguiente peldaño de realismo visual y, viendo cómo de grande puede llegar a ser la diferencia, no me atrevo a quitarles la razón.
Fue algo que pudimos ver en profundidad en una presentación junto a IO Interactive, ya que han colaborado de forma muy cercana durante el desarrollo de 007: First Light. Según palabras de Henrik Schlichter, director técnico del título, han funcionado como un único equipo en muchos momentos. El motor Glacier, empleado en IO Interactive, ha estado trabajando estrechamente con GeForce RTX para traer al juego elementos exclusivos centrados en la suma de las virtudes del DLSS4.5 y el path tracing. La presentación se realizó a través de diferentes escenarios y entornos que veremos en el juego final, comparándolos con el RTX activado y desactivado.
El path tracing de 007: First Light va más allá de ser un simple añadido apenas perceptible: cambia por completo la ambientación
Una vez más, al igual que pasaba en Resident evil Requiem, la diferencia era abismal. Es algo que va más allá de ser un simple añadido apenas perceptible, para convertirse en algo que cambia por completo la ambientación de la obra. Sin el RTX, todo lucía mucho más apagado y uniforme; puede que, sin enfrentarlo directamente a la versión con el RTX encendido, no sea tan evidente, pero una vez has visto la diferencia lo otro luce demasiado plano y poco realista en comparación.
El comportamiento y aspecto realista de la luz afecta también a los materiales y las texturas, dándoles mucho más valor. En lugares oscuros con focos locales de luz también hay una enorme diferencia en la aplicación del RTX. En un bar subterráneo de Londres, por ejemplo, incluso podía verse en el suelo el reflejo de una pantalla o de la nevera de botellas tras la barra. En este caso particular, con las luces de neón, también podemos hablar incluso de dar textura a la luz. El RTX da al neón el brillo adecuado, además del reflejo que provoca, cambiando así, una vez más, el tono y el aspecto de la escena.
Pudimos ver varios ejemplos más de su uso, siempre poniendo mucho énfasis en la diferencia tan evidente que se crea gracias a cómo la luz y su impacto en el escenario aporta veracidad y detalles que, aunque parezcan de texturas a mayor resolución, realmente se deben únicamente al propio path tracing. De hecho, este cambio era tan notorio que, en la rueda de preguntas posterior, suscitó una pregunta realmente interesante: en un juego de sigilo como 007: First Light, esta diferencia tan grande en la percepción de las sombras y la oscuridad, ¿llega a impactar en el gameplay? Dicho de otra forma: ¿con el RTX activado podría cambiar la forma en la que nos perciben los enemigos? La respuesta fue igualmente curiosa, y es que, efectivamente, podría darse esa situación. Sin embargo, es algo que han tenido en cuenta desde el propio diseño de niveles.
El juego se ha desarrollado con el path tracing en mente de tal forma que esos cambios en la visibilidad que debieran ser relevantes a nivel jugable, no lleguen a darse para no generar esa diferencia... al menos no de los enemigos hacia nosotros. Como jugadores, sí que podemos llegar a percibir mejor a los enemigos gracias a esta iluminación más realista y detallada, que nos regalará reflejos en cristales y otras superficies.
Junto al path tracing, nos comentaban que para 007: First Light era importante darle un toque cinematográfico mucho más marcado que en Hitman. Es por ello que otro de los pilares técnicos del juego es un renovado sistema de animaciones. El objetivo es integrar todas las acciones de Bond de una forma orgánica, sin que unas se sientan más responsivas que otras. Parte de esta intención cinematográfica también se ve reflejada (nunca mejor dicho) en la entidad que ganan las diferentes localizaciones gracias al path tracing. Los viajes de Bond en sus películas son otro aspecto fundamental al que querían dar el peso que se merece. Y, por supuesto, los coches también merecían su propio espacio.
El director técnico también señalaba la dificultad de combinar todos estos elementos en los desarrollos de una forma igualitaria. Aunque están convencidos de que el path tracing es el futuro del benchmark gráfico, no por ello quieren dejar atrás todo lo que pueden conseguir en el resto de equipos que usan ray tracing convencional. Hacer de esta tecnología algo fácilmente escalable para los jugadores, tanto a nivel de equipos como de percepción (tras años acostumbrados al sistema tradicional de iluminación), es algo en lo que están poniendo mucho esfuerzo.
Una variada muestra de poderío técnico
El path tracing también hizo acto de aparición en más juegos; más específicamente, comparando dos monitores que movían Resident Evil: Requiem. Ya sabíamos que la colaboración a este respecto iba a ser especialmente fructífera, pero sorprende mucho verlo en directo. Estábamos en una de las secuencias iniciales, con Leon en las lluviosas calles de la ciudad. Desde la posición que escogieron, era espectacular la cantidad de diferencias que se apreciaban. No hablamos solamente de ver los reflejos de los rótulos luminosos en superficies como los charcos o los coches, sino de que la propia fuente de luz brille de una forma convincente. Con sombras más precisas, mayor definición en ciertas estructuras, un tono y ambientación mucho más marcados... sin el reflejo del path tracing, muchos objetos quedan planos a irreales.
GeForce Now se revela como un servicio cada vez más sólido, confiable y sorprendente
El exitoso juego de Capcom también fue el ejemplo escogido para mostrar la capacidad de GeForce Now. El sorprendente servicio de juego en streaming de Nvidia nos permitía jugar a Resident Evil: Requiem a 5K y 120FPS, a la parte inicial con Grace. Había que fijarse mucho para localizar puntos de diferencia con un juego corriendo localmente, y no había ni rastro de input lag. Incidieron en su compromiso para, en la medida de lo posible, contar con los lanzamientos más recientes en GeForce Now desde el día de lanzamiento. Otras mejoras del servicio incluían mejoras en la interfaz, para mostrar de forma más clara qué juegos tenemos y en qué plataforma a la hora de ejecutarlos con Now.
Tampoco faltaron las alegrías para los usuarios de Linux: pudimos ver una demo de Battlefield 6 funcionando en Linux a través de GeForce Now; esta es la particular solución temporal de Nvidia a la imposibilidad de que muchos shooters de este tipo funcionen en Linux de forma nativa. Pudimos jugarlo online, una vez más, a 5K y 120FPS, y el resultado era incontestable.
Características como el DLSS4.5 y el Multi Frame Generation también tuvieron su espacio con una demo de Expedition 33. A través de la tortuosa sección de plataformeo vertical del título de Sandfall, podíamos ver cómo el sistema podía escalar la carga hasta 6X, ejecutándolo de forma dinámica según los requerimientos concretos de la escena. No se trata solo de subir la resolución, sino de mejorar la calidad visual percibida, adaptándose según la situación. También hacía un trabajo espectacular aportando calidad y definición a las texturas de los modelados y los escenarios.
Este modelo de Frame Generation también hace que, en juegos como World of Warcraft (y combinado con las capacidades de los monitores Pulsar), no haya emborronamiento en el HUD, rótulos o nombres de usuarios, ni siquiera mientras nos movemos. Para ello han separado el tratamiento de la interfaz del fondo de la imagen, para generar y recomponer esos elementos de forma más limpia. Fue algo que ya pudimos ver hace unos meses en París con ANNO como ejemplo, pero aquí también era bastante perceptible el efecto.
No fue la única novedad de Nvidia con la que nos hemos reencontrado. El agente ingame de IA, llamado ACE, también estaba disponible para probarlo en Total War: Pharaoh, pudiendo profundizar en los aspectos más técnicos de su funcionamiento. Concretamente, se habló de un small language model de unos 8.000 millones de parámetros, suficiente para responder rápido, pero no pensado para razonamiento profundo. Creative Assembly sabe que Total War intimida a nuevos jugadores, que acaban abandonando o incluso reembolsando tras haberlo comprado. ACE se plantea como una capa de accesibilidad que puede consultar el estado concreto de tu partida y responder a preguntas útiles en tiempo real; no quieren que juegue por ti, sino hacerte más fácil el proceso de aprendizaje de las dinámicas del juego.
También pudimos volver a ver la potencia del DGX Spark de Nvidia, con GPU Blackwell y 128 GB de VRAM, como acompañante de tareas generativas de IA. Conectar este pequeño superordenador a tu torre (u otras 10, pensando en equipos, según nos dijeron), permitían centralizar en él todo el trabajo relacionado con IA generativa, ejecutándola mucho más rápidamente con en un MacBook, y dejando a este toda la capacidad para seguir trabajando de forma paralela en otros menesteres. La demostración usaba ComfyUI en navegador: se generaban varias imágenes candidatas a partir de un prompt, se elegía una y luego se transformaba en un vídeo corto de unos cinco segundos. La comparación era directa: el MacBook por sí solo iba lentísimo y tardaría varios minutos, mientras que el Spark aceleraba el flujo de forma evidente.
Otro bloque importante fue el de RTX Remix, que ya te contamos que va a ser una auténtica revolución en los gráficos de videojuegos. Ya profundizamos en él hace unos días, pero verlo en acción con Quake III RTX ha sido realmente curioso. El concepto es claro: coger el juego original, mantenerlo corriendo por debajo y colocar encima una especie de envoltorio visual que sustituye materiales, iluminación, reflejos, partículas y otros elementos del renderizado. En la explicación insistieron en que el gameplay, la física y la base del juego siguen siendo los mismos; lo que cambia es cómo se presenta visualmente, incluyendo path tracing.
Los portátiles también contaron con su espacio en la presentación. Vimos dos equipos con GPU RTX 5080, donde NVIDIA usó demos de Cyberpunk 2077 y The Outer Worlds 2 para enseñar que el nuevo modelo Transformer y el resto de mejoras, no solo tienen sentido en equipos de sobremesa avanzados, sino también en equipos portátiles relativamente compactos. La idea era reforzar el discurso de que hoy ya es posible meter experiencias gráficas de muy alto nivel en formatos mucho más pequeños que hace unos años. También querían enfatizar el compromiso de la empresa en llevar el mayor número posible de mejoras gráficas a los equipos más antiguos, para que cada usuario contara siempre con la experiencia visual más avanzada que el hardware le permita.
Merged reality. ¿Un nuevo amanecer de la realidad extendida?
Me he reservado para el final uno de los momentos más impactantes de la presentación. En una sala aparte, Nvidia nos enseñó dos simuladores con gafas de realidad virtual Apple Vision Pro. Hasta aquí, podría parecer todo normal. Sin embargo, una vez dentro, fue cuando me comunicaron lo que estaba a punto de probar: un nuevo tipo de XR al que habían bautizado como realidad fusionada. Pensad en ello como una evolución de la realidad mixta que conocemos. Ejecutando en streaming simuladores iRacing a 90 FPS en vez de a 60, de RTX a un Apple Vision Pro de forma totalmente autónoma, probamos una experiencia en avión y otra en coche.
Jamás he probado nada como la realidad fusionada a nivel de realismo
La enorme calidad visual y de la pantalla del dispositivo de Apple se nota desde los primeros instantes. Su capacidad para ejecutar experiencias de realidad mixta se ve potenciada gracias a la claridad con la que percibimos nuestro cuerpo y las superficies, incluso a través del visor. Tras colocarnos en un asiento, con una cabina física que hacía las veces del panel de control del avión, comenzó el juego. Despegamos el avión desde la pista, lo estabilizamos en el aire y después pusimos el piloto automático para ayudarme en los giros. Para que os hagáis una idea, mis brazos, la palanca de vuelo y el panel de mandos eran reales; sin embargo, todo lo que había fuera de ese espacio, era un entorno virtual de gran calidad visual. Me confirmaron además que está pensado para poder realizarse con una mesa y un HOTAS normal a modo de panel de control, sin ser necesaria toda esa parafernalia.
Podía asomarme por el cristal del avión o de la cabina del coche, así como mirar hacia los lados o hacia atrás; eso no cambia mucho en relación a otras experiencias. Sin embargo, la fluidez con la que el escenario pasaba ante mis ojos es algo inédito en este tipo de experiencias. El detalle de las casas y los árboles, el tamaño del entorno, la sensación de velocidad, la distancia de dibujado... todo ello se corresponde con una experiencia VR de primer nivel, pero con la capa de realidad que aportaba mi propio cuerpo y la cabina, todo ello fusionado de forma perfecta y coherente.
La vibración de la cabina y del volante eran lo de menos: como gran aficionado de este tipo de experiencias, jamás he probado nada parecido a nivel de realismo. He sentido lo mismo que cuando probé por primera vez la realidad virtual, y de eso hace ya mucho tiempo. De hecho, en el vídeo promocional de esta experiencia, se veía la tipa imagen de la persona integrada en el juego, como se ha hecho desde hace años en la publicidad de la VR. Esa publicidad, que con el paso de los años ha perdido impacto, se ha vuelto realidad. Ahora solo les queda hacer que la gente lo pruebe para que compruebe, con su propio cuerpo, el nivel de realismo alcanzado con este cóctel tecnológico.
Mentiría si dijera que fue una experiencia 100% cómoda. Soy alguien que tiene una gran tolerancia al motion sickness, no es habitual que tenga malas sensaciones de XR. Sin embargo, en el simulador de vuelo (no así en el de carreras), sí que tuve una pequeña antesala de mareo, sin llegar a ser algo desagradable. El impacto de volar de una forma tan realista a nivel visual y de movilidad también habrá tenido que ver. Sin embargo, sí que se nota esta mejora en la fluidez; esta misma demo en otro dispositivo sería impensable a nivel de usabilidad. Ojalá puedan ampliarse su uso y posibilidades porque puede ser la evolución que este tipo de sistemas necesitaba.
Tras conocer que Nvidia no lanzará una nueva gráfica este año, era necesario un evento como este para dar a los usuarios una sensación de avance, aunque no vaya acompañado de nuevo hardware. De esta forma, su apuesta por el path tracing como siguiente paso de la evolución gráfica (reflejado en colaboraciones cada vez más estrechas con desarrolladores y títulos AAA), el juego en streaming con un GeForce Now cada vez más sólido y sus casos de uso de herramientas de IA son las principales e ilusionantes muestras de poderío tecnológico de la compañía. Todo ello, acompañado de esa promesa de salto de calidad en la vivencia de la realidad extendida, dan muestra del trabajo de Nvidia para seguir avanzando y adaptándose a la cambiante realidad que vivimos.
En 3DJuegos | Solo el productor de Devil May Cry 5 y Dragon's Dogma podía crear un action RPG como este. Y ahora necesita tu ayuda
Ver 0 comentarios