Un equipo de la Universidad de Chicago creó Nightshade para proteger ideas y contenidos.
El último esfuerzo para proteger a los artistas y sus creaciones es Nightshade, una herramienta que permite a los artistas agregar pixeles indetectables a su trabajo. eso podría corromper los datos de entrenamiento de una IA.
La creación de Nightshade se produce en un momento en que grandes empresas como OpenAI y Meta enfrentan demandas por infracción de derechos de autor y robo de obras personales sin compensación.
Ben Zhao, profesor de la Universidad de Chicago, y su equipo crearon Nightshade, que actualmente está siendo revisado por pares, en un esfuerzo por devolver parte del poder a las manos de los artistas.
Lo probaron en modelos recientes de Stable Diffusion y en una IA que construyeron personalmente desde cero.
Nightshade esencialmente funciona como un veneno, alterando la forma en que un modelo de aprendizaje automático produce contenido y cómo se ve el producto terminado.
Por ejemplo, podría hacer que un sistema de inteligencia artificial interprete una indicación de un bolso como una tostadora o muestre una imagen de un gato en lugar del perro solicitado (lo mismo ocurre con indicaciones similares como cachorro o lobo).
Nightshade sigue al lanzamiento en agosto de Zhao y su equipo de una herramienta llamada Glaze, que también altera sutilmente los pixeles de una obra de arte, pero hace que los sistemas de inteligencia artificial detecten la imagen inicial como completamente diferente de lo que es.
Un artista que quiera proteger su trabajo puede subirlo a Glaze y optar por usar Nightshade.
La tecnología dañina como Nightshade podría contribuir en gran medida a alentar a los principales actores de la IA a solicitar y compensar adecuadamente el trabajo de los artistas.
Las empresas que quieran eliminar el veneno probablemente tendrían que localizar todos los datos corruptos, una tarea difícil.
Zhao advierte que algunas personas podrían intentar utilizar la herramienta con fines malignos, pero que cualquier daño real requeriría miles de trabajos corruptos.
Fuente: MIT