Usar el aprendizaje automático para intercambiar una imagen por otra no es nuevo, pero pida a estos sistemas que hagan algo un poco más complicado que un intercambio de caras básico, y puede terminar con resultados decepcionantes o ridículos.
Ahora, los investigadores dicen que han desarrollado una técnica que produce imágenes mucho más convincentes para tareas complejas, como cambiar las faldas por pantalones, tazas por botellas o un rebaño de ovejas por un montón de jirafas.
Los investigadores del Instituto Superior de Ciencia y Tecnología de Corea y la Universidad de Ciencia y Tecnología de Pohang dicen que su técnica, InstaGan, se destaca por su capacidad para abordar cambios en la forma y alterar múltiples elementos de imagen a la vez.
El método, basado en redes adversas generativas (GAN), procesa información de instancia, como la capacidad de identificar objetos y límites en imágenes.
En su artículo, los investigadores escriben que creen que son los primeros en desarrollar una técnica de este tipo en imágenes más complejas “hasta donde sabemos”.
Los resultados son bastante impresionantes.
Las mujeres en fotos sin fondo simple o liso se cambian los pantalones por faldas sin ningún cambio perceptible en el fondo.

Pero no es completamente impecable: las piernas están un poco borrosas en la salida.
Las imágenes que muestran cómo su sistema cambia varias ovejas por jirafas son más impresionantes.
Tanto el fondo como los animales parecen realistas, especialmente en comparación con otros sistemas que intentan hacer lo mismo.
Los investigadores contrastan su técnica con los métodos anteriores, que producen algunos híbridos de oveja-jirafa o ovejas aparentemente sin cabeza.
Los investigadores señalan una serie de casos de uso por su técnica mejorada.
Los ejemplos de ropa, por ejemplo, podrían ser utilizados por personas interesadas en comparar diferentes artículos que podrían querer comprar.
También señalan que esta investigación se puede aplicar a la traducción automática neuronal (el proceso de usar IA para predecir qué palabras podrían aparecer en una oración) y la generación de videos.
Por supuesto, también hay formas más infames de utilizar esta tecnología.
Con cualquier sistema que pueda generar contenido falso de manera convincente, existe la preocupación de que se usará para desinformar de manera intencional y dañina a sus espectadores.
Tales herramientas ya existen, y están siendo explotadas, pero esta probablemente se usará para ayudar en el trabajo de otros investigadores bien intencionados.
Fuente: Gizmodo