Categorías: Tecnología

Google presenta IA que genera música y efectos para películas

Comparta este Artículo en:

DeepMind presentó V2A, una IA capaz de generar bandas sonoras, efectos y diálogos a partir de un archivo de video.

Google DeepMind presentó una nueva inteligencia artificial que puede generar música para un película.

La división enfocada en IA mostró sus avances en video a audio (V2A), una tecnología que produce sonidos a partir de un archivo de video y una entrada de texto.

Prompt: Suena una armónica lenta y suave mientras el sol se pone en la pradera

El modelo es capaz de generar una pista de audio acorde con los elementos del video y sincronizarla.

DeepMind señala que V2A puede generar pistas, efectos de sonido realistas o diálogos que coincidan con los personajes.

El usuario solo tiene que proveer un archivo de video y un prompt en lenguaje natural que servirá como apoyo.

Prompt: Autos derrapando, motor de coche acelerando, música electrónica angelical

Las entradas de texto pueden incluir el tipo de sonido, género de música o tempo, así como frases que describan el entorno.

Los ingenieros mencionan que la tecnología V2A es capaz de producir una cantidad ilimitada de bandas sonoras para cualquier video.

El sistema puede combinarse con otros modelos de generación de video, como Veo, y permite un ajuste fino por medio de un prompt positivo o negativo que otorga mayor control al archivo de salida.

De acuerdo con Google, V2A utiliza un enfoque basado en difusión para generar y sincronizar el audio.

El sistema codifica la entrada de video en una representación comprimida y la ejecuta de manera iterativa a través del modelo de difusión.

Prompt: Una nave espacial se precipita a través de la inmensidad del espacio, las estrellas pasan como un rayo, alta velocidad, ciencia ficción

Luego genera audio comprimido, que se decodifica en una forma de onda de audio.

Es importante destacar que las instrucciones en lenguaje natural (prompt) sirven como guía para que el modelo genere sonidos específicos.

DeepMind menciona que V2A puede comprender pixeles sin procesar, por lo que las instrucciones en texto son opcionales.

Eso sí, cuando se emplean en conjunto, la IA es capaz de asociar los eventos de audio específicos con una representación visual.

Los primeros resultados son sorprendentes y muestran el poder de la IA a la hora de sincronizar los efectos de sonido con el video.

Prompt: suspenso, película de terror, música, tensión, ambiente, pisadas sobre concreto.

Los ingenieros añadieron que el sistema no necesita alineación manual, por lo que no tendremos que preocuparnos por ajustar el tempo y otros valores.

Como ocurre con todos los modelos de IA, el sistema V2A no es perfecto.

Google menciona que la calidad del sonido generado dependerá de la calidad del video, por lo que si introduces una pista comprimida o de mala calidad, es posible que no obtengas los resultados deseados.

De igual modo, la generación de voces para videos que involucran diálogos necesita ajustes, puesto que no efectúa una sincronización de labios precisa.

V2A representa un salto importante en el terreno de la IA.

Para evitar un mal uso de esta tecnología, Google implementará marcas de agua en todo el contenido y la someterá a diversas pruebas de seguridad.

Al mismo tiempo, los ingenieros de DeepMind se apoyarán en expertos de otras áreas, principalmente de la comunidad creativa (cineastas, creadores, etc.) para moldear su sistema.

Por ahora no existe una fecha de lanzamiento definida para esta tecnología.

Fuente: DeepMind

Editor PDM

Entradas recientes

Inteligencia artificial quiere ser parlamentario británico

La herramienta de inteligencia artificial ha sido desarrollada por un empresario que quiere utilizarla para…

57 mins hace

IBM planea un computador cuántico de 10.000 cúbits para el 2029

El itinerario de IBM en el ámbito de los computadores cuánticos es extraordinariamente ambicioso. (more…)

59 mins hace

Robot humanoide aprende habilidades autónomas copiando a los humanos

Investigadores de Stanford, liderados por Zipeng Fu, Qingqing Zhao y Qi Wu, han desarrollado HumanPlus,…

60 mins hace

Inteligencia artificial capaz de crear escenas altamente complejas con humanos

Creíamos que Sora de OpenAI estaba a años luz de la competencia: Runway Gen-3 Alpha…

1 day hace

Preservan ADN en un polímero similar al ámbar

Científicos del MIT desarrollan un polímero similar al ámbar para preservar el ADN y datos…

1 day hace

Han utilizado un Raspberry Pi para emular un Macintosh original

El Macintosh original tiene una interesante historia. No solo se trata del predecesor de los…

1 day hace
Click to listen highlighted text!