Categorías: Tecnología

Web gratuita capaz de distinguir las imágenes reales de las generadas por inteligencia artificial

Comparta este Artículo en:

Estamos presenciando en directo la evolución de la inteligencia artificial generativa. Hace aproximadamente un año nos sorprendíamos con la capacidad de DALL·E para crear imágenes pintorescas.

Pero eran solo eso. Imágenes pintorescas.

Era extremadamente difícil que alguna de estas creaciones impulsadas por inteligencia artificial acabara haciéndose pasar por una fotografía.

Aunque, en ocasiones, se podían obtener resultados fotorrealistas, ciertos detalles en el rostro o en las manos de los individuos evidenciaban la presencia de algoritmos generativos, pero esto acaba de cambiar.

Recientemente empezaron a circular en las redes sociales imágenes del Papa Francisco con un abrigo blanco, de Donald Trump siendo detenido por la Policía de Nueva York e incluso de Emmanuel Macron en medio de una protesta en alguna ciudad francesas.

Estas imágenes tenían en común que eran todas absolutamente falsas, pero también plausibles.

Es cada vez más difícil distinguir si un contenido ha sido creado utilizando herramientas de IA o se trata realmente de imágenes reales.

Este problema, que emerge como el extremo visible de un iceberg, está generando preocupación debido a que se trata de una puerta abierta a las fake news y la desinformación.

A la par de este fenómeno, sin embargo, hay quienes ya están intentando aportar soluciones.

Por un lado, tenemos a la Unión Europea mostrándose a favor de marcar el contenido generado por IA, y por otro lado actores privados como Optic, que apuestan por la idea de un detector de imágenes generadas por IA disponible públicamente en la web.

La compañía acaba de presentar AI or Not, un sistema de análisis que, como su nombre lo indica, permite identificar si el contenido visual que hemos cargado ha sido creando utilizando una IA.

Tan solo tenemos que arrastrar una imagen JPEG o PNG y aguardar el resultado del análisis que se presentará ante nosotros en valores porcentuales.

La siguiente imagen fue identificada correctamente como creada por humanos:

Pero en algunas generadas por la inteligencia artificial DALL·E falló y e indicó que fueron tomadas por humanos, aunque con un porcentaje menor de seguridad:

Seguramente, su grado de precisión seguirá mejorando con el tiempo.

Los creadores de AI or Not explican que el sistema es más preciso con Stable Diffusion, Midjourney y DALL·E, aunque sus algoritmos también pueden detectar “signos de generación de IA” en imágenes provenientes de otros modelos, aunque puede que la precisión disminuya.

Fuente: Optic

Editor PDM

Entradas recientes

Nuevos MacBook Pro con chip M3 más potencia y nuevo color

Apple ha presentado la nueva generación de sus portátiles para profesionales que llevan en su…

12 hours hace

El nuevo iMac de 24 pulgadas con chip M3 es dos veces más potente que su predecesor

El nuevo Apple iMac (2023) se renueva a lo grande con el chip M3: el…

12 hours hace

Nueva cámara superconductora capaz de resolver fotones individuales

Investigadores han construido una cámara superconductora de 400.000 pixeles, que es tan sensible que puede…

12 hours hace

Guantes hápticos que permiten sentir objetos en realidad virtual

Los guantes hápticos Fluid Reality se pueden usar para tocar cosas en realidad virtual. (more…)

12 hours hace

Robot diseñado para recopilar datos sobre arrecifes y criaturas marinas

El robot CUREE impulsado por NVIDIA Jetson, desarrollado por investigadores del Laboratorio Autónomo de Percepción…

12 hours hace

Desarrollan tecnología táctil acústica que ayuda a las personas con problemas de visión a ver mediante el sonido

Investigadores de la Universidad Tecnológica de Sydney (Australia) han desarrollado una tecnología táctil acústica que…

1 day hace
Click to listen highlighted text!