Usan aprendizaje automático para detectar rápidamente falsificación de rostros en videos

Usan aprendizaje automático para detectar rápidamente falsificación de rostros en videos

Comparta este Artículo en:

Este algoritmo supera a todas las demás técnicas actualmente disponibles.

Sabemos que la inteligencia artificial (IA) se puede usar para intercambiar caras en fotos y videos.

La gente, por supuesto, se ha aprovechado de esta herramienta para algunos usos perturbadores, incluido el intercambio de personas en videos pornográficos: la pornografía de venganza definitiva.

Pero si IA se puede utilizar para hacer el intercambio, ¿no se puede usar también para detectar cuándo se produce esa práctica?

Un nuevo algoritmo promete hacer justamente eso, identificando videos falsificados tan pronto como sean publicados en línea.

El equipo, dirigido por Andreas Rossler en la Universidad Técnica de Munich, desarrolló el aprendizaje automático que es capaz de detectar automáticamente cuándo se intercambian rostros en videos.

Entrenaron al algoritmo usando un gran conjunto de intercambios de caras que hicieron ellos mismos, creando la base de datos más grande de este tipo de imágenes disponibles.
The studies showed that women who were either past their menopausal phase or had undergone hysterectomy. viagra tabs was given to correct their sexual arousal disorder. As during the attack of impotency human penile tissues become viagra pfizer 100mg so weak that they can’t hold the blood sent to them after sexual stimulation. Nerve damage, stroke, muscle diseases, and some infections can result in loss of feeling and function of the arms and chest. tadalafil 20mg from india The film is about four friends Phil, Stu, Alan and Doug who have a bachelor that goes wrong. discount viagra sales
Luego entrenaron el algoritmo, llamado XceptionNet, para detectar los intercambios de rostros.

XceptionNet claramente supera a sus técnicas rivales en la detección de este tipo de video falso, pero también mejora la calidad de las falsificaciones.

El equipo de Rossler puede usar los sellos más importantes de un intercambio de caras para hacer que la manipulación sea más fluida.

No engaña a XceptionNet, pero a largo plazo, podría dificultar que otros métodos detecten videos falsificados.

En la imagen que acompaña esta nota, la foto superior en cada par es real.

Fuente: Engadget

Leave a Reply

Your email address will not be published. Required fields are marked *