A medida que las redes de inteligencia artificial se vuelven más hábiles y más fáciles de acceder, las fotos y vídeos “deepfake” manipulados digitalmente son cada vez más difíciles de detectar.
Una nueva investigación dirigida por la Universidad de Binghamton, Universidad Estatal de Nueva York, descompone las imágenes utilizando técnicas de análisis del dominio de frecuencia y busca anomalías que podrían indicar que están generadas por IA.
En un artículo el estudiante de doctorado Nihal Poredi, Deeraj Nagothu y el profesor Yu Chen del Departamento de Ingeniería Eléctrica e Informática de Binghamton compararon imágenes reales y falsas más allá de los signos reveladores de manipulación de imágenes, como dedos alargados o texto de fondo sin sentido.
El equipo creó miles de imágenes con herramientas de IA generativa populares como Adobe Firefly, PIXLR, DALL-E y Google Deep Dream, luego las analizó utilizando técnicas de procesamiento de señales para poder comprender sus características del dominio de frecuencia.
La diferencia en las características del dominio de frecuencia de las imágenes generadas por IA y las naturales es la base para diferenciarlas utilizando un modelo de aprendizaje automático.
Al comparar imágenes utilizando una herramienta llamada Generative Adversarial Networks Image Authentication (GANIA), los investigadores pueden detectar anomalías (conocidas como artefactos) debido a la forma en que la IA genera las imágenes falsas.
El método más común para crear imágenes de IA es el sobremuestreo, que clona pixeles para hacer que los tamaños de archivo sean más grandes, pero deja huellas en el dominio de frecuencia.
“Cuando tomas una foto con una cámara real, obtienes información de todo el mundo: no solo de la persona, la flor, el animal o la cosa de la que quieres tomar una foto, sino que todo tipo de información ambiental está incrustada allí“, dijo Chen.
“Con la IA generativa, las imágenes se centran en lo que le pides que genere, sin importar cuán detallado sea.
No hay forma de describir, por ejemplo, cuál es la calidad del aire o cómo sopla el viento o todas las pequeñas cosas que son elementos de fondo”.
Nagothu añadió:
“Aunque hay muchos modelos de IA emergentes, la arquitectura fundamental de estos modelos sigue siendo prácticamente la misma.
Esto nos permite explotar la naturaleza predictiva de su manipulación de contenido y aprovechar huellas digitales únicas y fiables para detectarla”.
El artículo de investigación también explora formas en las que GANIA podría utilizarse para identificar los orígenes de la IA de una foto, lo que limita la difusión de información errónea a través de imágenes deepfake.
“Queremos poder identificar las ‘huellas digitales’ de diferentes generadores de imágenes de IA“, dijo Poredi.
“Esto nos permitiría construir plataformas para autenticar el contenido visual y prevenir cualquier evento adverso asociado con las campañas de desinformación”.
Además de las imágenes deepfake, el equipo ha desarrollado una técnica para detectar grabaciones de audio y video falsas basadas en IA.
La herramienta desarrollada, denominada “DeFakePro“, aprovecha las huellas digitales ambientales llamadas señal de frecuencia de red eléctrica (ENF) creada como resultado de ligeras fluctuaciones eléctricas en la red eléctrica.
Como un zumbido de fondo sutil, esta señal se incrusta de forma natural en los archivos multimedia cuando se graban.
Al analizar esta señal, que es exclusiva del momento y el lugar de la grabación, la herramienta DeFakePro puede verificar si la grabación es auténtica o si ha sido manipulada.
Esta técnica es muy eficaz contra los deepfakes y explora más a fondo cómo puede proteger las redes de vigilancia inteligente a gran escala contra este tipo de ataques de falsificación basados en IA.
El enfoque podría ser eficaz en la lucha contra la desinformación y el fraude digital en nuestro mundo cada vez más conectado.
“La desinformación es uno de los mayores desafíos que enfrenta la comunidad global hoy en día“, dijo Poredi.
“El uso generalizado de la IA generativa en muchos campos ha llevado a su mal uso. Combinado con nuestra dependencia de las redes sociales, esto ha creado un punto crítico para un desastre de desinformación.
Esto es particularmente evidente en países donde las restricciones a las redes sociales y la libertad de expresión son mínimas. Por lo tanto, es imperativo garantizar la cordura de los datos compartidos en línea, específicamente los datos audiovisuales”.
Aunque los modelos de IA generativa se han utilizado de forma indebida, también contribuyen significativamente al avance de la tecnología de imágenes.
Los investigadores quieren ayudar al público a diferenciar entre contenido falso y real, pero mantenerse al día con las últimas innovaciones puede ser un desafío.
“La IA avanza tan rápido que, una vez que se ha desarrollado un detector de deepfakes, la próxima generación de esa herramienta de IA tiene en cuenta esas anomalías y las corrige”, dijo Chen.
“Nuestro trabajo consiste en intentar hacer algo innovador”.
Fuente: SPIE
Presentan una batería hecha de compuesto de fibra de carbono y tan rígida como el…
Investigadores desarrollan un ingenio electrónico flexible y ponible capaz de recolectar la energía del calor…
El principal problema al que se enfrentan los computadores cuánticos en el ámbito de la…
Aún no hemos llegado al punto en el que un vehículo autónomo Tesla pueda recogerle…
Investigadores de la Universidad Nacional de Singapur han desarrollado un protector bucal inteligente que podría…
Investigadores de la Universidad de Cornell han creado robots microscópicos de menos de 1 milímetro…