La generación de deepfakes es una de las aplicaciones de la inteligencia artificial que más ha dado de qué hablar en este último año.
Y además, evoluciona a ojos vista, permitiendo a una base de usuarios cada vez más amplia realizar deepfakes cada vez más realistas de manera cada vez más sencilla.
Pero lo de FSGAN es un paso enorme en ese sentido.
Este nuevo software (cuyo nombre significa ‘Face Swapping GAN’ o ‘Red generativa antagónica cambia-caras’) nos permite recurrir a dos técnicas diferentes de creación de deepfakes en formato video:
La de ‘face swapping’, con la que superponemos el rostro de una persona sobre el cuerpo de otra, y la de ‘face reenactment’, que nos permite recrear la efigie de una persona aplicándole los movimientos de otra persona (incluyendo los de los labios).
Pero lo más relevante de FSGAN es que permite hacer todo esto sin necesidad de poner el algoritmo en cuestión a ‘entrenar’ durante horas (o incluso días), y recurriendo a costoso hardware especializado, hasta que éste sea capaz de ‘aprender’ el aspecto y movimiento de un rostro humano.
Y el ahorro de tiempo no es la única gran novedad, sino hasta qué punto se simplifica a partir de ahora la generación de deepfakes: básicamente, cualquier persona con unos conocimientos básicos de esta tecnología podrá producir nuevas falsificaciones, porque el ‘trabajo pesado’ pasa a estar completamente automatizado.
Desarrollado por científicos de la Universidad Bar-Ilan de Israel, FSGAN mapea el rostro o las expresiones faciales de una persona ‘fuente’ (extraída de un video o, incluso, aunque con peores resultados, de un mero fotograma) para aplicarlos sobre un segundo individuo ‘objetivo’.
El video de demostración publicado por los investigadores permite observar que los resultados de esta técnica simplificada se acercan al nivel de perfección mostrado en el pasado por otras más complejas de usar, consiguiendo salir airoso de retos como el de lidiar con micrófonos superpuestos al rostro ‘objetivo’ o el conjuntar rostros y cuerpos de distinta pigmentación de piel.
Sin embargo, es cierto que por ahora FSGAN flojea bastante en otros casos, como a la hora de aplicar el ‘face reenactment’ a partir de un fotograma individual, mostrando fondos de imagen temblorosos que permiten detectar el deepfake de lejos.
Pero, ¿por qué sus creadores han anunciado que compartirán de manera “inminente” el código de este software con el mundo?
¿No podrían aplicar la política por la que optó Open AI cuando se negó a permitir el acceso a su generador de ‘fake news’ GPT-2 porque era “demasiado peligroso en las manos equivocadas”?
Lo cierto es que ellos no están de acuerdo: afirman que lo compartirán porque impedirlo “no detendrá el desarrollo de tecnología similar”, sino que sencillamente ocultaría al público y a los responsables políticos las repercusiones del mal uso de esta clase de algoritmos, e impediría el desarrollo de alguna clase de contramedidas.
Fuente: Xataca