Algoritmo para evitar que la inteligencia artificial tenga "olvidos catastróficos"

Algoritmo para evitar que la inteligencia artificial tenga “olvidos catastróficos”

Comparta este Artículo en:

Las redes neuronales tienen una capacidad notable para aprender tareas específicas, como identificar dígitos escritos a mano.

Sin embargo, estos modelos a menudo experimentan un “olvido catastrófico” cuando se les enseñan tareas adicionales: pueden aprender con éxito las nuevas tareas, pero “olvidan” cómo completar la original.

Para muchas redes neuronales artificiales, como las que guían los automóviles autónomos, aprender tareas adicionales requiere una reprogramación completa.

Los cerebros biológicos, por otro lado, son notablemente flexibles.

Los humanos y los animales pueden aprender fácilmente a jugar un juego nuevo, por ejemplo, sin tener que volver a aprender a caminar y hablar.

Inspirados por la flexibilidad de los cerebros humanos y animales, investigadores de Caltech han desarrollado ahora un nuevo tipo de algoritmo que permite que las redes neuronales se actualicen continuamente con nuevos datos de los que pueden aprender sin tener que empezar desde cero.

El algoritmo, llamado algoritmo de ruta funcionalmente invariante (FIP), tiene aplicaciones muy variadas, desde mejorar las recomendaciones en las tiendas online hasta ajustar los carros autónomos.

El algoritmo fue desarrollado en el laboratorio de Matt Thomson, profesor adjunto de biología computacional e investigador del Heritage Medical Research Institute (HMRI).

Thomson y el ex estudiante de posgrado Guru Raghavan, Ph.D., se inspiraron en la investigación en neurociencia de Caltech, en particular en el laboratorio de Carlos Lois, profesor de investigación de biología. Lois estudia cómo los pájaros pueden reconfigurar sus cerebros para aprender a cantar de nuevo después de una lesión cerebral. Los humanos también pueden hacer esto; las personas que han sufrido daño cerebral a causa de un derrame cerebral, por ejemplo, a menudo pueden forjar nuevas conexiones neuronales para aprender de nuevo las funciones cotidianas.

“Este fue un proyecto de varios años que comenzó con la ciencia básica de cómo los cerebros aprenden de forma flexible”, dice Thomson.

“¿Cómo damos esta capacidad a las redes neuronales artificiales?”

El equipo desarrolló el algoritmo FIP utilizando una técnica matemática llamada geometría diferencial.

El marco permite modificar una red neuronal sin perder información codificada previamente.

En 2022, con la orientación de Julie Schoenfeld, emprendedora residente de Caltech, Raghavan y Thomson crearon una empresa llamada Yurts para seguir desarrollando el algoritmo FIP e implementar sistemas de aprendizaje automático a gran escala para abordar muchos problemas diferentes.

Raghavan cofundó Yurts con los profesionales de la industria Ben Van Roo y Jason Schnitzer.

Fuente: Nature machine intelligence

 

Leave a Reply

Your email address will not be published. Required fields are marked *