Investigadores engañan a una inteligencia artificial para que piense que una tortuga impresa en 3D es un rifle

Engañan a una inteligencia artificial para que piense que una tortuga impresa en 3D es un rifle

Comparta este Artículo en:

Investigadores japoneses han utilizado un truco sorprendentemente simple para engañar a una inteligencia artificial de reconocimiento de objetos para que clasifique a una tortuga impresa en 3D como un rifle. Increíblemente, lo hicieron cambiando un solo pixel.

Normalmente, el reconocimiento de objetos funciona mediante la coincidencia compleja de patrones: el software mide los pixeles en una imagen y los combina con un plano interno de las dimensiones de un objeto determinado.

El “ataque de un pixel”, como lo describen los investigadores, identifica las debilidades y altera ligeramente estos pixeles, lo que obliga a la inteligencia artificial a “ver” algo más.

Al alterar un solo pixel en una imagen de 1.024 pixeles, el ataque fue exitoso el 74 por ciento de las veces.

Al cambiar cinco pixeles, la tasa de éxito del ataque aumentó al 87 por ciento.

Los investigadores ya en julio fueron capaces de engañar al software usando imágenes 2D, pero aquí, con objetos tridimensionales en tiempo real, el exploit tiene mayores ramificaciones en el mundo real.

Fuera de una tortuga impresa en 3D tomada como un arma de fuego, la IA también tomó una pelota de béisbol como un espresso y un gato como guacamole.

Engañar a la inteligencia artificial para que vea un arma es particularmente preocupante, ya que el reconocimiento de objetos se está convirtiendo rápidamente en un elemento clave en la vigilancia inteligente.

En septiembre, la empresa de seguridad Knightscope dio a conocer una nueva línea de “robots para la lucha contra el crimen”, buggies autodirigidos equipados con equipos de vigilancia y reconocimiento de objetos, ofreciéndolos como seguridad suplementaria para aeropuertos y hospitales.

¿Qué sucede cuando los robots informan una amenaza de alto nivel a las autoridades debido a una tortuga de papel?

Del mismo modo, Motorola y Axon (anteriormente Taser) han invertido en el reconocimiento de objetos en tiempo real en sus cámaras corporales.

Si este exploit se puede usar para engañar a la inteligencia artificial y confundirlo con algo inofensivo, ¿podría hacer lo contrario, disfrazar armas como tortugas?

Anish Athalye, coautor del documento del MIT, dice que el problema no es tan simple como solucionar una sola vulnerabilidad; la IA necesita aprender a ver más allá de simplemente reconocer patrones complejos:

“No debería ser capaz de tomar una imagen, modificar ligeramente los pixeles y confundir completamente la red”, dijo a Quartz.

“Las redes neuronales eliminan todas las técnicas previas en términos de rendimiento, pero dada la existencia de estos ejemplos adversos, muestra que realmente no entendemos lo que está sucediendo”.

Sin embargo, los expertos en privacidad pueden cubrir la necesidad de acelerar el reconocimiento impulsado por la inteligencia artificial.

Una mejor “visión” para AI inevitablemente significa una vigilancia más fuerte.

Es un compromiso incómodo, pero con AI lista para cambiar todos los aspectos de la vida moderna, incluida la salud, la seguridad, el transporte, etc., debemos predecir y prevenir estos ataques.

Fuentes: Gizmodo, Mashable

Artículos relacionados: