Estamos presenciando en directo la evolución de la inteligencia artificial generativa. Hace aproximadamente un año nos sorprendíamos con la capacidad de DALL·E para crear imágenes pintorescas.
Pero eran solo eso. Imágenes pintorescas.
Era extremadamente difícil que alguna de estas creaciones impulsadas por inteligencia artificial acabara haciéndose pasar por una fotografía.
Aunque, en ocasiones, se podían obtener resultados fotorrealistas, ciertos detalles en el rostro o en las manos de los individuos evidenciaban la presencia de algoritmos generativos, pero esto acaba de cambiar.
Recientemente empezaron a circular en las redes sociales imágenes del Papa Francisco con un abrigo blanco, de Donald Trump siendo detenido por la Policía de Nueva York e incluso de Emmanuel Macron en medio de una protesta en alguna ciudad francesas.
Estas imágenes tenían en común que eran todas absolutamente falsas, pero también plausibles.
Es cada vez más difícil distinguir si un contenido ha sido creado utilizando herramientas de IA o se trata realmente de imágenes reales.
Este problema, que emerge como el extremo visible de un iceberg, está generando preocupación debido a que se trata de una puerta abierta a las fake news y la desinformación.
A la par de este fenómeno, sin embargo, hay quienes ya están intentando aportar soluciones.
Por un lado, tenemos a la Unión Europea mostrándose a favor de marcar el contenido generado por IA, y por otro lado actores privados como Optic, que apuestan por la idea de un detector de imágenes generadas por IA disponible públicamente en la web.
La compañía acaba de presentar AI or Not, un sistema de análisis que, como su nombre lo indica, permite identificar si el contenido visual que hemos cargado ha sido creando utilizando una IA.
Tan solo tenemos que arrastrar una imagen JPEG o PNG y aguardar el resultado del análisis que se presentará ante nosotros en valores porcentuales.
La siguiente imagen fue identificada correctamente como creada por humanos:
Pero en algunas generadas por la inteligencia artificial DALL·E falló y e indicó que fueron tomadas por humanos, aunque con un porcentaje menor de seguridad:
Seguramente, su grado de precisión seguirá mejorando con el tiempo.
Los creadores de AI or Not explican que el sistema es más preciso con Stable Diffusion, Midjourney y DALL·E, aunque sus algoritmos también pueden detectar “signos de generación de IA” en imágenes provenientes de otros modelos, aunque puede que la precisión disminuya.
Fuente: Optic
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)
Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…
El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…
Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…
Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…
Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…