NVIDIA ha desarrollado un modelo de aprendizaje profundo capaz de transformar bocetos en arte fotorrealista.
Lo logra gracias a redes de confrontación generativas, o GAN, para convertir mapas de segmentación en imágenes realistas.
GauGAN, un tributo al pintor postimpresionista Paul Gauguin, es la aplicación interactiva que utiliza el modelo.
“Es mucho más fácil realizar una lluvia de ideas en diseños con bocetos simples, y esta tecnología puede convertir los bocetos en imágenes altamente realistas”, dijo Bryan Catanzaro, vicepresidente de investigación de aprendizaje profundo aplicado en NVIDIA.
En pocas palabras, GauGAN permite a los usuarios dibujar sus propios mapas de segmentación y manipular la escena, etiquetando cada segmento con etiquetas como arena, cielo, mar o nieve.
El modelo de aprendizaje profundo está capacitado en un millón de imágenes y luego llena el paisaje con resultados increíbles.
Por ejemplo, si dibuja en un estanque, los elementos cercanos, como árboles y rocas, aparecerán como reflejos en el agua.
O simplemente cambie una etiqueta de segmento de “hierba” a “nieve” y la imagen completa cambiará a una escena de invierno.
Fuente: Techeblog
Ingenieros del Laboratorio de Robótica y Mecanismos (RoMeLa) de UCLA han desarrollado un robot con…
Científicos han descubierto un sorprendente efecto fotomolecular que, entre otras repercusiones, podría cambiar el modo…
Investigadores de la Universidad Johannes Kepler de Linz han desarrollado un dron impulsado por energía…
La sarcopenia es un trastorno frecuente en la gente de edad avanzada. (more…)
Una nueva vacuna contra las bacterias resistentes a antibióticos podría ser la solución que llevamos…
Los modelos de IA generativa como ChatGPT nos inundan, pero para usarlos la inmensa mayoría…