Un equipo del Laboratorio Nacional de Los Álamos ha desarrollado un enfoque novedoso para comparar redes neuronales que mira dentro de la “caja negra” de la inteligencia artificial para ayudar a los investigadores a comprender el comportamiento de las redes neuronales.
Las redes neuronales reconocen patrones en conjuntos de datos; se utilizan en todas partes en la sociedad, en aplicaciones como asistentes virtuales, sistemas de reconocimiento facial y vehículos autónomos.
“La comunidad de investigación de inteligencia artificial no necesariamente tiene una comprensión completa de lo que están haciendo las redes neuronales; nos dan buenos resultados, pero no sabemos cómo ni por qué“, dijo Haydn Jones, investigador de Advanced Research in Cyber Grupo de sistemas en Los Álamos.
“Nuestro nuevo método hace un mejor trabajo al comparar redes neuronales, lo cual es un paso crucial para comprender mejor las matemáticas detrás de la IA“.
Jones es el autor principal del artículo “Si ha entrenado a uno, los ha capacitado a todos: la similitud entre arquitecturas aumenta con la robustez“, que se presentó recientemente en la Conferencia sobre la incertidumbre en la inteligencia artificial.
Además de estudiar la similitud de redes, el documento es un paso crucial hacia la caracterización del comportamiento de las redes neuronales robustas.
Las redes neuronales son de alto rendimiento, pero frágiles.
Por ejemplo, los automóviles autónomos utilizan redes neuronales para detectar señales.
Cuando las condiciones son ideales, lo hacen bastante bien.
Sin embargo, la aberración más pequeña, como una pegatina en una señal de alto, puede hacer que la red neuronal identifique erróneamente la señal y nunca se detenga.
Para mejorar las redes neuronales, los investigadores están buscando formas de mejorar la solidez de la red.
Un enfoque de última generación consiste en “atacar” las redes durante su proceso de formación.
Los investigadores introducen aberraciones intencionalmente y entrenan a la IA para que las ignore.
Este proceso se llama entrenamiento contradictorio y esencialmente hace que sea más difícil engañar a las redes.
Jones, los colaboradores de Los Alamos, Jacob Springer y Garrett Kenyon, y el mentor de Jones, Juston Moore, aplicaron su nueva métrica de similitud de red a redes neuronales entrenadas por adversarios y descubrieron, sorprendentemente, que el entrenamiento por adversarios hace que las redes neuronales en el dominio de la visión por computadora converjan para representaciones de datos muy similares, independientemente de la arquitectura de la red, a medida que aumenta la magnitud del ataque.
“Descubrimos que cuando entrenamos las redes neuronales para que sean robustas contra los ataques de los adversarios, comienzan a hacer las mismas cosas“, dijo Jones.
Ha habido un gran esfuerzo en la industria y en la comunidad académica en busca de la “arquitectura correcta” para las redes neuronales, pero los hallazgos del equipo de Los Álamos indican que la introducción del entrenamiento antagónico reduce sustancialmente este espacio de búsqueda.
Como resultado, es posible que la comunidad de investigación de IA no necesite dedicar tanto tiempo a explorar nuevas arquitecturas, sabiendo que el entrenamiento de adversarios hace que diversas arquitecturas converjan en soluciones similares.
“Al descubrir que las redes neuronales robustas son similares entre sí, estamos facilitando la comprensión de cómo podría funcionar realmente la IA robusta.
Incluso podríamos descubrir pistas sobre cómo se produce la percepción en humanos y otros animales“, dijo Jones.
Fuente: Tech Xplore