Dos expertos del equipo OpenAI han desarrollado un nuevo tipo de modelo de consistencia de tiempo continuo (sCM) que, según afirman, puede generar medios de video 50 veces más rápido que los modelos que se utilizan actualmente.
En los métodos de aprendizaje automático mediante los que se entrenan las aplicaciones de IA, los modelos de difusión, a veces llamados modelos probabilísticos de difusión o modelos generativos basados en puntajes, son un tipo de modelo generativo variable.
Estos modelos suelen tener tres componentes principales: procesos directos e inversos y un procedimiento de muestreo.
Estos modelos son la base para generar productos basados en lo visual, como videos o imágenes fijas, aunque también se han utilizado con otras aplicaciones, como en la generación de audio.
Al igual que con otros modelos de aprendizaje automático, los modelos de difusión funcionan mediante el muestreo de grandes cantidades de datos.
La mayoría de estos modelos ejecutan cientos de pasos para generar un producto final, por lo que la mayoría de ellos tardan unos minutos en realizar sus tareas.
En marcado contraste, Lu y Song han desarrollado un modelo que realiza todo su trabajo utilizando solo dos pasos.
Esa reducción de pasos, señalan, ha reducido drásticamente la cantidad de tiempo que su modelo tarda en generar un video, sin ninguna pérdida de calidad.
El nuevo modelo utiliza más de 1.500 millones de parámetros y puede producir un video de muestra en una fracción de segundo ejecutándose en una máquina con una sola GPU A100.
Esto es aproximadamente 50 veces más rápido que los modelos que se utilizan actualmente.
Los investigadores señalan que su nuevo modelo también requiere mucho menos poder computacional que otros modelos, un problema constante con las aplicaciones de IA en general a medida que su uso se dispara.
También señalan que su nuevo enfoque ya se ha sometido a una evaluación comparativa para comparar sus resultados con otros modelos, tanto los que se utilizan actualmente como los que están desarrollando otros equipos.
Sugieren que su modelo debería permitir aplicaciones de IA generativas en tiempo real en un futuro cercano.
Fuente: arXiv