Un equipo de investigadores de IA y científicos informáticos de la Universidad de Alberta ha descubierto que las redes artificiales actuales que se utilizan con sistemas de aprendizaje profundo pierden su capacidad de aprender durante un entrenamiento prolongado con nuevos datos.
El grupo encontró una forma de superar estos problemas con la plasticidad en los sistemas de IA tanto de aprendizaje supervisado como de refuerzo, lo que les permite seguir aprendiendo.
En los últimos años, los sistemas de IA se han generalizado.
Entre ellos se encuentran los grandes modelos de lenguaje (LLM), que producen respuestas aparentemente inteligentes de los chatbots.
Pero una cosa de la que carecen todos es la capacidad de seguir aprendiendo mientras se utilizan, un inconveniente que les impide volverse más precisos a medida que se utilizan más.
Tampoco pueden volverse más inteligentes entrenándose con nuevos conjuntos de datos.
Los investigadores probaron la capacidad de las redes neuronales convencionales para seguir aprendiendo después del entrenamiento con sus conjuntos de datos originales y descubrieron lo que describen como olvido catastrófico, en el que un sistema pierde la capacidad de llevar a cabo una tarea que era capaz de hacer después de ser entrenado con material nuevo.
Los investigadores señalan que este resultado es lógico, considerando que los LLM fueron diseñados para ser sistemas de aprendizaje secuencial y aprender mediante el entrenamiento en conjuntos de datos fijos.
Durante las pruebas, el equipo de investigación descubrió que los sistemas también pierden su capacidad de aprender por completo si se entrenan secuencialmente en múltiples tareas, una característica que describen como pérdida de plasticidad.
Pero también encontraron una forma de solucionar el problema: restableciendo los pesos que se han asociado previamente con los nodos de la red.
Con las redes neuronales artificiales, los nodos utilizan los pesos como una medida de su fuerza: los pesos pueden ganar o perder fuerza a través de señales enviadas entre ellos, que a su vez se ven afectadas por los resultados de los cálculos matemáticos.
A medida que aumenta un peso, aumenta la importancia de la información que transmite.
Los investigadores sugieren que reiniciar los pesos entre sesiones de entrenamiento, utilizando los mismos métodos que se utilizaron para inicializar el sistema, debería permitir mantener la plasticidad en el sistema y que continúe aprendiendo en conjuntos de datos de entrenamiento adicionales.
Fuente: Nature
Este robot no es muy hablador como el C-3PO de "La guerra de las galaxias",…
Un algoritmo de inteligencia artificial puede permitir a los investigadores utilizar la impresión 3D de…
Una nueva investigación de la Universidad de Massachusetts Amherst muestra que programar robots para que…
Un equipo de investigadores de IA de Sakana AI, en Japón, en colaboración con colegas…
La inteligencia artificial (IA) y las herramientas de aprendizaje automático han demostrado ser muy eficaces…
Un equipo de científicos chinos ha creado un nuevo modelo de red inspirado en el…