A medida que los videojuegos les dan a los jugadores más libertad para explorar mundos digitales complejos, se vuelve más desafiante para un personaje CG moverse e interactuar naturalmente con todo lo que contienen esos mundos digitales.
Entonces, para evitar esas transiciones incómodas entre movimientos preprogramados, los investigadores han recurrido a la inteligencia artificial y al aprendizaje profundo para hacer que los personajes de los videojuegos se muevan de forma casi tan realista como lo hacen los humanos reales.
Para ayudar a que los personajes de los videojuegos caminen, corran, salten y realicen otros movimientos de la manera más realista posible, los desarrolladores de videojuegos a menudo confían en las actuaciones humanas que se capturan y traducen a personajes digitales.
Según los investigadores, produce resultados que son más rápidos y de mejor aspecto que animar personajes de videojuegos a mano, pero es imposible planificar todas las formas posibles en que un personaje interactuará con un mundo digital.
Los desarrolladores de juegos intentan planificar tantas posibilidades como pueden, pero finalmente tienen que confiar en el software para hacer la transición entre animaciones de un personaje que camina hacia una silla, y luego sentarse en él, y la mayoría de las veces, esos movimientos se sienten. forzados, antinaturales, y pueden disminuir la experiencia de un jugador.
Científicos informáticos de la Universidad de Edimburgo y Adobe Research han presentado una solución novedosa que presentarán en la conferencia ACM Siggraph Asia que se realizará en Brisbane, Australia, el próximo mes.
Y al igual que muchos avances anteriores, implica aprovechar las capacidades de las redes neuronales de aprendizaje profundo para suavizar los problemas de animación que los videojuegos exhiben actualmente.
Para crear los deepfakes convincentes pero inquietantes que encontrará en Internet ahora, primero se entrena una red neuronal estudiando la cara de una persona determinada (a menudo una celebridad) desde todos los ángulos posibles y con cada expresión imaginable usando una base de datos de decenas de miles de fotos de la cabeza del sujeto.
Es un proceso que lleva mucho tiempo, pero con ese conocimiento, se pueden crear intercambios faciales automáticamente que se ven increíblemente realistas.
Se está adoptando un enfoque similar para esta investigación, pero en lugar de entrenar una red neuronal en una base de datos de rostros, estudia una colección de movimientos capturados y digitalizados de un artista en vivo en un escenario sonoro.
Para obtener los mejores resultados, se requiere una base de datos bastante grande de movimientos para que el sistema los analice, con un ejecutante que realiza los movimientos de levantar objetos, trepar cosas o tumbarse en una silla.
Pero no tiene que ser infinitamente inclusivo, la red neuronal puede tomar lo que ha aprendido y adaptarlo a casi cualquier situación o entorno, mientras sigue produciendo resultados y movimientos de aspecto natural, según los investigadores.
Está llenando los espacios entre un personaje que camina hacia una silla, reduce la velocidad, gira su cuerpo y luego se sienta, pero une de manera inteligente todos esos movimientos y animaciones para ocultar las costuras.
Hay otras ventajas de enseñar a los videojuegos cómo los personajes deben moverse e interactuar con las cosas en lugar de animar previamente esos movimientos, como ayudar a reducir el tamaño de los archivos de los juegos y la cantidad de datos que deben procesarse y compartirse: algo que se vuelve aún más relevante a medida que los juegos de streaming se vuelven cada vez más frecuentes.
Este enfoque también allana el camino para interacciones más complejas para los personajes de videojuegos.
¿Con qué frecuencia ve que más de dos personajes terminan peleándose? Nunca, excepto en escenas pre-animadas.
Fuente: Gizmodo