La red neuronal DeepMind de Google ha demostrado que puede crear videos cortos a partir de una sola imagen.
El modelo de inteligencia artificial, llamado “Transframer” “sobresale en la predicción de video y la síntesis de vista” y es capaz de “generar videos de 30 [segundos] a partir de una sola imagen”.
Como señala el sitio web de Transframer, la IA hace sus videos en perspectiva al predecir el entorno de las imágenes de destino con “imágenes de contexto“; en resumen, al adivinar correctamente cómo se vería una de las sillas desde diferentes perspectivas en función de una amplia información de entrenamiento que permite “imaginar” un objeto real desde otro ángulo.
Este modelo es especialmente impresionante porque parece ser capaz de aplicar la percepción de profundidad artificial y la perspectiva para generar cómo se vería la imagen si alguien se “moviera” a su alrededor, lo que plantea la posibilidad de videojuegos completos basados en tecnología de aprendizaje automático en lugar de representación tradicional.
Más elementos para reflexionar: un usuario de Twitter ya ha dicho que planea usar Transframer junto con los resultados del algoritmo de generación de imágenes DALL-E de OpenAI, un ejemplo muy bueno del tipo de acción de IA sobre IA que probablemente veremos mucho más en los próximos años.
Fuente: Transframer