A principios de 2020 veíamos algo similar, pero la mejora respecto a entonces es enorme.
Como puede ver en el siguiente video, el detalle es tremendo (especialmente en las letras de la placa del barco en el minuto 1:18).
El motor se llama ADOP (Approximate Differentiable One-Pixel Point Rendering) y se expone en la web ArXiv de la Universidad de Cornell, desde donde detallan que el escenario se genera a partir de fotografías tomadas arbitrariamente.
Un motor adicional se encarga de ir modificando la tonalidad de cada fotografía para que el resultado quede uniforme.
Rodolfo Rosini, fundador de la inversora ConceptionX, ha difundido el vídeo mencionando algunas posibles aplicaciones de esta tecnología.
Con escenarios reproducibles a resoluciones tan altas piensa en replicar conciertos o eventos de gran envergadura, o crear escenarios realistas en videojuegos o películas.
También podemos pensar en las posibilidades de estos motores usando fotografías tomadas con smartphones avanzados, con sensores LiDAR.
Podríamos ser capaces de generar un escenario tridimensional navegable de lo que queramos a base de unas cuantas fotografías tomadas alrededor.
O como dice Rosini, “poder rotar el ángulo de las fotos” que tengamos en nuestro carrete.
¿Quizás en Google Street View?
Fuente: arXiv