Las imágenes que está a punto de ver están, de hecho, al borde de las imágenes generadas por una máquina, combinadas con una producción colaborativa de inteligencia artificial humana del artista Alex Reben y un poco de ayuda de algunos artistas chinos anónimos.
El último trabajo de Reben, llamado AmalGAN, se deriva del motor de generación de imágenes BigGAN de Google.
Al igual que otras GAN (Generative Adversarial Networks), BigGAN utiliza un par de IA competidoras: una para generar imágenes al azar, la otra para calificar dicha imagen en función de lo cerca que esta del material de entrenamiento.
Sin embargo, a diferencia de las iteraciones anteriores de los generadores de imágenes, BigGAN está respaldado por la potencia de computación gigantesca de Google y utiliza esa capacidad para crear imágenes increíblemente realistas.
Pero lo que es más importante, también puede aprovecharse para crear obras de arte psicodélicas, que es lo que Joel Simon ha hecho con la aplicación GANbreeder.
Este programa basado en la web utiliza el motor BigGAN para combinar imágenes separadas en mashups, por ejemplo, 40 por ciento de Beagle, 60 por ciento de librería.
Además, puede tomar estas imágenes generadas y combinarlas (o “reproducirlas”) en imágenes “secundarias” de segunda generación.
Repetir este proceso de reproducción da como resultado imágenes de ensueño y extrañas.
La contribución de Reben es tomar ese proceso GANbreeder y automatizar todo lo que sea humanamente posible.
- Una IA combina diferentes palabras para generar una imagen de cómo cree que se ven esas palabras
- La IA luego produce variantes de esas imágenes al “reproducirlas” con otras imágenes, creando imágenes “secundarias”.
- Otra IA muestra al artista varias imágenes “infantiles”, midiendo sus ondas cerebrales y sus señales corporales para seleccionar la imagen que más le guste.
- Los pasos 2 y 3 se repiten hasta que la IA determina que ha alcanzado una imagen óptima
- Otra IA aumenta la resolución de la imagen al rellenar los espacios en blanco con lo que cree que debería existir allí
- El resultado es enviado a pintarse sobre lienzo por pintores anónimos en un pueblo pintor en China.
- Una IA final mira la imagen, trata de averiguar qué contiene y crea un título.
Los primeros dos pasos son manejados por GANbreeder.
“Por lo que yo entiendo, en este momento [GANrreeder mezcla imágenes] al azar”, Reben le dijo a Engadget.
“Así que decide aumentar o disminuir los porcentajes de las dos imágenes o agregar nuevos modelos. Ya sabe, como 5 por ciento de vaca, y esa será una de las imágenes que muestra”.
Una vez que el sistema ha concebido una selección suficiente de imágenes potenciales, Reben clasifica la colección utilizando una IA independiente entrenada para determinar cuánto le gusta una pieza específica en función de su reacción física.
“Entrené un sistema de aprendizaje profundo sobre los sensores corporales que llevaba”, explica Reben.
“Tuve un programa que me mostró tanto el arte bueno como el malo, el arte que me gustó y el arte que no me gustó, y grabé los datos”.
Luego utilizó esos datos para entrenar una red neuronal simple para descubrir las diferencias fisiológicas entre sus reacciones.
“Básicamente, te da ese tipo de indicación dicotómica de lo que este arte es [para mí] a partir de las ondas cerebrales y las señales corporales”, continuó.
“Recoge el EEG, también tengo frecuencia cardíaca y GSR. Creo que también podría agregar un elemento de reconocimiento de emoción facial a través de mi cámara web”.
El proceso de selección varía entre los conjuntos de imágenes, dijo Reben.
A veces, la imagen “correcta” aparecía entre las primeras presentadas por la IA, otras requerían que él investigara varias generaciones de imágenes infantiles para encontrar una que le gustara.
Una vez que ha seleccionado las imágenes específicas que planea incluir en el proyecto oficial, Reben tiene las imágenes digitales al óleo pintadas en lienzo por artistas chinos anónimos.
“El ‘por qué’ más fácil es porque no puedo pintar”, bromeó Reben.
“El uso de pintores chinos anónimos es otro vínculo en este sistema autónomo, donde mi mano no está en las obras de arte, solo mi cerebro y mis ojos”.
Transferir las obras a un medio físico también ayuda a evitar un inconveniente inherente del sistema BigGAN: el hecho de que las imágenes sean tan pesadas en recursos que aún no se han creado en un tamaño superior a 512 x 512 pixeles de resolución.
Los artistas anónimos están “básicamente usando el poder del cerebro humano para convertir esa imagen en un lienzo”, dijo.
“Entonces ese aspecto también es interesante, porque habrá un poco de interpretación humana”.
Por último, Reben usa la IA CaptionBot de Microsoft para crear títulos para cada imagen.
“Pensé que era interesante eliminar a más y más humanos del proceso”, concluyó Reben.
“También me gusta ver lo que la IA interpreta como … porque no atrapa todo”.
Por ahora, el motor BigGAN no tiene muchas aplicaciones prácticas y su documento de investigación, que se publicó por primera vez en septiembre, se encuentra actualmente bajo revisión para una conferencia de IA en 2019.
El sistema en sí tiene un poco de problema de conteo, como lo demuestra su insistencia continua en que las caras del reloj tienen más de dos manos y las arañas tienen entre cuatro y 17 patas, pero estas idiosincrasias podrían ser de gran ayuda para artistas como Reben y Simon.
“Una de las cosas que Joel [Simon] está haciendo … es que le gustaría convertir esa herramienta de ese sitio web en una herramienta para personas creativas”, dijo Reben.
Los artistas podrían entrenar el sistema en sus propias imágenes, no solo el stock de Google, experimentar con los niveles de salida y “usarlo como una forma de despertar la imaginación y la creatividad, lo que creo que es genial”.
Fuente: Engadget