Estamos presenciando en directo la evolución de la inteligencia artificial generativa. Hace aproximadamente un año nos sorprendíamos con la capacidad de DALL·E para crear imágenes pintorescas.
Pero eran solo eso. Imágenes pintorescas.
Era extremadamente difícil que alguna de estas creaciones impulsadas por inteligencia artificial acabara haciéndose pasar por una fotografía.
Aunque, en ocasiones, se podían obtener resultados fotorrealistas, ciertos detalles en el rostro o en las manos de los individuos evidenciaban la presencia de algoritmos generativos, pero esto acaba de cambiar.
Recientemente empezaron a circular en las redes sociales imágenes del Papa Francisco con un abrigo blanco, de Donald Trump siendo detenido por la Policía de Nueva York e incluso de Emmanuel Macron en medio de una protesta en alguna ciudad francesas.
Estas imágenes tenían en común que eran todas absolutamente falsas, pero también plausibles.
Es cada vez más difícil distinguir si un contenido ha sido creado utilizando herramientas de IA o se trata realmente de imágenes reales.
Este problema, que emerge como el extremo visible de un iceberg, está generando preocupación debido a que se trata de una puerta abierta a las fake news y la desinformación.
A la par de este fenómeno, sin embargo, hay quienes ya están intentando aportar soluciones.
Por un lado, tenemos a la Unión Europea mostrándose a favor de marcar el contenido generado por IA, y por otro lado actores privados como Optic, que apuestan por la idea de un detector de imágenes generadas por IA disponible públicamente en la web.
La compañía acaba de presentar AI or Not, un sistema de análisis que, como su nombre lo indica, permite identificar si el contenido visual que hemos cargado ha sido creando utilizando una IA.
Tan solo tenemos que arrastrar una imagen JPEG o PNG y aguardar el resultado del análisis que se presentará ante nosotros en valores porcentuales.
La siguiente imagen fue identificada correctamente como creada por humanos:
Pero en algunas generadas por la inteligencia artificial DALL·E falló y e indicó que fueron tomadas por humanos, aunque con un porcentaje menor de seguridad:
Seguramente, su grado de precisión seguirá mejorando con el tiempo.
Los creadores de AI or Not explican que el sistema es más preciso con Stable Diffusion, Midjourney y DALL·E, aunque sus algoritmos también pueden detectar “signos de generación de IA” en imágenes provenientes de otros modelos, aunque puede que la precisión disminuya.
Fuente: Optic
Apple ha presentado la nueva generación de sus portátiles para profesionales que llevan en su…
El nuevo Apple iMac (2023) se renueva a lo grande con el chip M3: el…
Investigadores han construido una cámara superconductora de 400.000 pixeles, que es tan sensible que puede…
Los guantes hápticos Fluid Reality se pueden usar para tocar cosas en realidad virtual. (more…)
El robot CUREE impulsado por NVIDIA Jetson, desarrollado por investigadores del Laboratorio Autónomo de Percepción…
Investigadores de la Universidad Tecnológica de Sydney (Australia) han desarrollado una tecnología táctil acústica que…