Algoritmos de inteligencia artificial permiten generar rápidamente videos falsos de figuras públicas

Algoritmos de inteligencia artificial permiten generar rápidamente videos falsos de figuras públicas

Comparta este Artículo en:

Jordan Peele utiliza herramientas de aprendizaje automático para hacer que un falso Obama nos diga cosas que nunca ha dicho.

La tecnología está haciendo más fácil que nunca generar desinformación y propaganda y diseminarla rápidamente a legiones de personas en línea, con poca verificación del proceso.

Algo que es particularmente preocupante son los algoritmos de aprendizaje automático que permiten rápidamente generar videos falsos de figuras públicas que dicen cosas que no hicieron, con asombrosa precisión audiovisual.

El año pasado, investigadores de la Universidad de Washington usaron la tecnología para tomar videos de cosas que el ex presidente Barack Obama ya había dicho, y luego generar videos falsos de él escupiendo esas líneas al pie de la letra en un formato generado por máquina.

El equipo de investigación no llegó a poner nuevas palabras en boca de Obama, pero el director de Get Out, Jordan Peele y BuzzFeed, han hecho precisamente eso como un advertencia.

Actores malintencionados pronto podrían generar videos de cualquiera que diga algo.

Para el video de muestra se usa tecnología similar al estudio de la Universidad de Washington y la imitación de Peele (¡bastante buena!) de la voz de Obama,

“Cubrimos sitios web de noticias falsas que dicen que el Papa apoyó a Trump que se parecen un poco a las noticias reales, pero debido a que es texto la gente comenzó a ser más cautelosa”, escribió el CEO de BuzzFeed, Jonah Peretti.

“Y ahora estamos empezando a ver tecnología que permite a las personas poner palabras en boca de figuras públicas que parecen que deben ser reales porque su video no miente”.

El clip falso de Peele no es perfecto; se engancha en algunos lugares, y a veces es bastante obvio que algo está mal con la boca falsa de Obama.

Algunos de los movimientos de las manos son rígidos, y eso sin contar que sigue haciendo los mismos una y otra vez.

Pero el componente de video ya está en el nivel en que alguien que presta la mitad de atención, quizás escaneando el contenido de un artículo, o encendiendo la TV de la cocina mientras prepara el desayuno, podría no darse cuenta de los extraños aspectos de la simulación.

Kamagra tablets 100mg, is buy cheap viagra link link a standard strength of the medicine and can show some side-effects. They may possibly consist of: viagra online canadian Tadalafil, cialis generico cialis on line Avanafil All four medications look up the Net, check whether the online pharmacy is genuine and click, click and click. It has been checked through a few men alongside spe levitra from canadats of whom applying cialis 100mg will be as protected while applying generic cialis. It contains sildenafil pfizer viagra for sale http://www.donssite.com/truckphoto/pictures-pick-up-truck-photos.htm citrate, an FDA-approved active ingredient that improves blood supply within the male organ and leads to powerful and hard erection during sex. Se empleó un software de consumo estándar, concretamente Adobe After Effects y FakeApp, que aplica las herramientas de aprendizaje automático Google TensorFlow.

Esta última herramienta es la misma que se extendió rápidamente en Reddit cuando se dieron cuenta de que podían usarla para intercambiar las caras de las celebridades con las de los actores porno.

Como señaló anteriormente su colega Adam Clark Smith, hay innumerables usos potenciales de esta tecnología que calificarían como mundanos, como mejorar la calidad de imagen de las aplicaciones de video chat o recrear facsímiles alucinantes de discursos históricos en video de alta definición u hologramas.

Pero los algoritmos de aprendizaje automático están mejorando rápidamente, y como el investigador de seguridad Greg Allen escribió en Wired, es probable que solo sea una cuestión de años antes de que el componente de audio se ponga de moda y haga que la imitación de Obama de Peele sea innecesaria.

En una década, algunos tipos de análisis forenses pueden incluso ser incapaces de detectar audio falsificado.

La generación de falsificaciones de alta calidad requiere toneladas de entrada bruta para ajustar la falsificación resultante, pero eso no es difícil de conseguir para celebridades o políticos.

“Cuando las herramientas para producir video falso funcionen con una calidad superior a la del CGI de hoy y estén disponibles simultáneamente para aficionados inexpertos, estas falsificaciones podrían comprender una gran parte del ecosistema de información”, escribió Allen.

“El crecimiento de esta tecnología transformará el significado de la evidencia y la verdad en dominios del periodismo, las comunicaciones gubernamentales, testimonios en la justicia penal y, por supuesto, la seguridad nacional”.

Al final del video de Peele, él y el falso Obama repiten uno de los puntos de discusión del presidente real: si queremos evitar un futuro donde los videos de los políticos dicen que quieren apoderarse de las armas de todos y derretirlas en una estatua a un dios pagano se haga viral en Facebook sin recurrir a la censura, todos deben mejorar mucho en el tratamiento de la información aleatoria que se ve en línea, tratarla con escepticismo.

“Este es un momento peligroso”, concluye Peele.

“En el futuro, debemos estar más atentos con lo que confiamos en internet.

Es un momento en el que debemos confiar en fuentes de noticias confiables.

Fuente: Gizmodo

Leave a Reply

Your email address will not be published. Required fields are marked *