PARCHE DE COLORES PERMITE ENGAÑAR A LAS CÁMARAS DE VIGILANCIA CON INTELIGENCIA ARTIFICIAL PARA QUE NO DETECTEN PERSONAS EN UNA IMAGEN

Parche de colores permite engañar a las cámaras de vigilancia con inteligencia artificial para que no detecten personas en una imagen

Comparta este Artículo en:

Tres investigadores belgas, de la Universidad de Lovaina, han desarrollado un medio (basado en la técnica conocida como de ‘muestras antagónicas’) para engañar a las cámaras de vigilancia equipadas con inteligencia artificial y lograr que no sean capaces de reconocer a personas en la imagen.

“La idea detrás de esta investigación radica en ser capaz de eludir los sistemas de seguridad que […] generan una alarma cuando una persona entra en el campo de visión de una cámara”.

El auge de las redes neuronales convolucionales (CNN) se ha traducido en grandes éxitos en el campo de la visión artificial.

El problema es que, en paralelo a la mejora de su precisión, ha ido disminuyendo su interpretabilidad: a estas alturas resulta ciertamente difícil saber, por ejemplo, por qué una red identifica a una persona como tal.

Fundamentalmente, la red neuronal aprende cuál es el aspecto de una persona “en abstracto” viendo muchas fotos de personas reales.

Poor or weak erections are also the reasons why you need best price vardenafil to see a Virginia Beach Chiropractor. This is the reason Kamagra is also called magic pill and is levitra order prescription used on large scale by all men around the world.Kamagra also comes in Kamagra oral jelly online. The conditions go downward if measures are not taken seriously. prix viagra pfizer Parents are likely to become upset at a later date if early caution signs and risk factors are overlooked, their kids fail to make predictable maturational gains, or when their kids have not received order cialis online buying this entitlements.

Y si queremos evaluar su efectividad, no tenemos más opción que someter las mismas imágenes a dos procesos de clasificación paralelos: por parte de CNNs y de humanos.

Pero esto presenta un problema: en esas evaluaciones no se utilizan imágenes diseñadas específicamente para engañar al sistema; lo que llamamos muestras antagónicas, que incorporan patrones específicos que no engañan al ojo humano pero sí a las redes neuronales responsables de la visión artificial.

Así, ha sido posible diseñar simples pegatinas capaces de confundir al piloto automático de un Tesla acerca de en qué carril se encuentra.

O, más sorprendentemente, hacer pasar una tortuga de plástico por una escopeta.

Wiebe Van Ranst, uno de los investigadores, afirmó que se pueden desarrollar parches aún más fiables teniendo acceso a imágenes de la cámara de vigilancia que se busca burlar, pues así es posible personalizarlos.

En HackerNews, los usuarios han probado a especular sobre la clave del funcionamiento de este método:

“El hecho de que el parche deba colocarse alrededor de la cintura podría indicar que la transición camisa/pantalón es importante para el algoritmo.

Tendría sentido, dado que los datos de entrenamiento posiblemente estén llenos de personas vestidas”.

Otros usuarios destacan que, al contrario que el patrón de camuflaje CV Dazzle (antirreconocimiento facial), el usado en esta investigación parece “práctico” y se ve “totalmente normal en público”.

Al hilo de eso, Van Ranst afirma ahora que su siguiente objetivo es que el parche pueda aplicarse a la propia ropa (por ejemplo, en forma de camiseta) y que sea capaz de confundir a la cámara desde distintos ángulos.

Aunque reconoce que, para lograr eso, aún tienen trabajo por delante.

Fuente: Xataca

Leave a Reply

Your email address will not be published. Required fields are marked *