Investigadores han desarrollado un método para generar una vista de 360 grados de una persona con una apariencia consistente y de alta resolución a partir de una única imagen de entrada, llamado difusión guiada por formas.
Esto se logra sintetizando primero múltiples vistas del ser humano en la imagen de entrada pintando regiones faltantes con difusión guiada por forma condicionada a la silueta y la superficie normal.
Estas múltiples vistas luego se fusionan mediante renderizado inverso para obtener una malla 3D de alta resolución completamente texturizada de la persona determinada.
Así, lograron un método capaz de lograr una síntesis fotorrealista de 360 grados de una amplia gama de humanos vestidos con texturas complejas a partir de una sola imagen.
“En cada iteración, renderizamos de manera diferenciada el mapa de textura UV en cada vista sintetizada de nuestro conjunto de vistas.
Minimizamos la pérdida de reconstrucción entre la vista renderizada y nuestra vista sintetizada usando tanto la pérdida LPIPS como la pérdida L1.
La fusión da como resultado una malla texturizada eso se puede representar desde cualquier vista”, dijeron los investigadores.
Fuente: GitHub
Utilizando una imagen de rayos X de tórax de rutina, una herramienta de inteligencia artificial…
El nuevo modelo es capaz de procesar hasta 150.000 palabras por entrada y analizar documentos…
Stability AI ha presentado su primer modelo básico para video generativo. (more…)
Se trata de un heliostato con un sistema de fibra óptica que permite llevar luz…
El concepto de Laika, un perro robótico realista, se ha presentado como un posible compañero…
Un proyecto de la NASA presenta los datos astronómicos en un formato al que no…