Desde la introducción de DLSS en 2018, Nvidia ha ampliado lentamente su oferta en el espacio de la IA, que solo ha crecido con los años con ofertas como Reflex y Broadcast. Si bien los primeros días de DLSS estuvieron llenos de problemas como artefactos, con el paso de los años y sus múltiples iteraciones, se ha convertido en una característica necesaria para mantener el equilibrio entre la fidelidad visual del trazado de rayos y la alta velocidad de cuadros que desean los jugadores.
Sin embargo, si nos fijamos en el futuro de la IA en los videojuegos, Nvidia parece tener muchas más ideas en marcha más allá de DLSS y Reflex. Hace poco me invitaron a echar un vistazo y probar algunas de estas próximas funciones en la presentación de la GeForce Nvidia RTX AI PC Showcase.
Organizado por John Gillooly, gerente de marketing de productos técnicos de Asia Pacífico Sur en NVIDIA, el evento compartió la visión de la compañía para el futuro no solo de los juegos, sino de toda la industria del entretenimiento, con una experiencia práctica con estas herramientas.
NVIDIA ACE podría ser la forma de interactuar con los NPC en el futuro
Nvidia presentó ACE en enero de 2024. Avatar Cloud Engine, o ACE, es un conjunto de tecnologías que utiliza IA generativa para crear humanos digitales o NPC interactivos. En pocas palabras, la tecnología mitiga el árbol de diálogo tradicional en favor de una conversación más natural con el NPC, donde puedes preguntarle cualquier cosa al personaje del juego y este responderá en consecuencia, aunque respetando la tradición del juego.
En la demostración que mostró Nvidia, había dos tipos diferentes de ACE, uno con el próximo juego Mecha BREAK y el otro con la demostración de Legends Tech desarrollada por Perfect World.
El primer ejemplo en Mecha BREAK utiliza el núcleo tensor de la GPU para alojar todo el procesamiento de IA localmente, lo que proporciona una interacción más rápida con una latencia mínima, pero con opciones de diálogo bastante limitadas.
Si bien podría pedirle fácilmente al personaje del juego que cambie mi mecha equipado por uno diferente o que me explique las estadísticas del mecha, si le preguntaba al personaje algo fuera del juego, la mayoría de las veces la respuesta era “Lo siento, no pude entender eso”.
Además, la demostración se bloqueó varias veces, lo que, teniendo en cuenta la versión inicial no optimizada de la demostración, me preocupa el rendimiento, especialmente porque todos los sistemas de demostración ejecutaban RTX 4080 o 4090.
La segunda demostración de NVIDIA ACE fue la demostración de Legends Tech de Perfect World. A diferencia de Mecha BREAK, utiliza computación en la nube y ChatGPT para responder a los jugadores, aunque con algunas medidas de seguridad intencionales para mantener la precisión de la historia de los personajes.
La demo presentaba a un personaje de un entorno de alta fantasía medieval, que no conoce tecnologías modernas, como los automóviles, pero puede guiarte sobre qué arma equipar y dónde usarla. Aunque las respuestas demoraban unos segundos, era mucho más natural e interactiva en comparación con la anterior.
Después de probar las demostraciones, soy escéptico y optimista. Si bien es cierto que es una característica novedosa en este momento, con el costo potencial en mi GPU o conexión a Internet, es muy temprano en su ciclo de vida como para juzgarla o descartarla por completo.
Cuando se introdujo por primera vez el trazado de rayos en las GPU de consumo, también apareció como una característica novedosa, ya que la mayoría de los jugadores, incluido yo, preferían mayores FPS a una mejor iluminación en un puñado de juegos.
Sin embargo, durante la última media década, se ha convertido en una característica esencial, ya que DLSS cubre la pérdida de rendimiento. Espero que el futuro de Nvidia ACE sea igualmente brillante, donde podamos ver una adopción generalizada de la tecnología sin afectar considerablemente al rendimiento.
Impresiones prácticas de las herramientas de inteligencia artificial NVIDIA Audio2Face, ComfyUI y ChatRTX
Si bien ACE fue el punto destacado del evento, ciertamente no fue el único en exhibición. Se destacaron otras dos herramientas de IA, entre ellas Audio2Face en Nvidia Omniverse, junto con ComfyUI y ChatRTX.
La herramienta Audio2Face de Nvidia Omniverse es una herramienta enfocada en los desarrolladores que utiliza IA para crear automáticamente animaciones faciales que coincidan con las opciones de diálogo. Además de la sincronización de labios, la herramienta te permite configurar la expresión del rostro con la simulación de todos los músculos faciales, lo que crea una animación facial muy realista.
Si bien la demostración no mostró ningún caso de uso de la herramienta, puede ser muy beneficiosa para juegos multilingües, ayudando a que las expresiones del motor se adapten a los diferentes idiomas de audio.
ComfyUI y ChatRTX de Nvidia ofrecieron experiencias similares a otras herramientas de IA del mercado, creando imágenes con difusión estable y un chatbot local que puede acceder a tus archivos para responder a tus consultas. Sin embargo, se destacan en el uso de GPU de Nvidia para alojarlo completamente de forma local, anulando así cualquier latencia o problemas de servidor y brindando una solución mucho más rápida.
En general, el próximo conjunto de herramientas de inteligencia artificial de Nvidia parece prometedor y sin duda beneficiará a la industria de los videojuegos en el futuro. Por mi parte, estoy deseando que Nvidia ACE llegue al próximo título de rol para poder pasar horas inmerso en el mundo del juego.