Nueva visión sobre cómo el cerebro ajusta las conexiones sinápticas puede inspirar una inteligencia artificial más robusta

Nueva visión sobre cómo el cerebro ajusta las conexiones sinápticas puede inspirar una inteligencia artificial más robusta

Comparta este Artículo en:

Investigadores de la Unidad de Dinámica de Redes Cerebrales del MRC y del Departamento de Ciencias de la Computación de la Universidad de Oxford han establecido un nuevo principio para explicar cómo el cerebro ajusta las conexiones entre las neuronas durante el aprendizaje.

Este nuevo conocimiento puede guiar futuras investigaciones sobre el aprendizaje en redes cerebrales y puede inspirar algoritmos de aprendizaje más rápidos y robustos en inteligencia artificial.

La esencia del aprendizaje es identificar qué componentes del proceso de procesamiento de información son responsables de un error en la salida.

En inteligencia artificial, esto se logra mediante retropropagación: ajustar los parámetros de un modelo para reducir el error en la salida.

Muchos investigadores creen que el cerebro emplea un principio de aprendizaje similar.

Sin embargo, el cerebro biológico es superior a los sistemas actuales de aprendizaje automático.

Por ejemplo, podemos aprender nueva información con solo verla una vez, mientras que los sistemas artificiales necesitan ser entrenados cientos de veces con la misma información para aprenderla.

Además, podemos aprender nueva información manteniendo el conocimiento que ya tenemos, mientras que aprender nueva información en redes neuronales artificiales a menudo interfiere con el conocimiento existente y lo degrada rápidamente.

Estas observaciones motivaron a los investigadores a identificar el principio fundamental empleado por el cerebro durante el aprendizaje.

Observaron algunos conjuntos de ecuaciones matemáticas existentes que describen cambios en el comportamiento de las neuronas y en las conexiones sinápticas entre ellas.

Analizaron y simularon estos modelos de procesamiento de información y descubrieron que emplean un principio de aprendizaje fundamentalmente diferente del utilizado por las redes neuronales artificiales.

En las redes neuronales artificiales, un algoritmo externo intenta modificar las conexiones sinápticas para reducir el error, mientras que los investigadores proponen que el cerebro humano primero establece la actividad de las neuronas en una configuración equilibrada óptima antes de ajustar las conexiones sinápticas.

Los investigadores postulan que, de hecho, se trata de una característica eficaz de la forma en que aprende el cerebro humano.

Esto se debe a que reduce la interferencia al preservar el conocimiento existente, lo que a su vez acelera el aprendizaje.

Los investigadores describen este nuevo principio de aprendizaje, al que denominaron “configuración prospectiva“.

Demostraron en simulaciones por computadora que los modelos que emplean esta configuración prospectiva pueden aprender más rápido y más efectivamente que las redes neuronales artificiales en tareas que normalmente enfrentan animales y humanos en la naturaleza.

Los autores utilizan el ejemplo de la vida real de un oso pescando salmón.

El oso puede ver el río y ha aprendido que si también puede oír el río y oler el salmón, es probable que capture uno.

Pero un día, el oso llega al río con la oreja dañada, por lo que no puede oírlo.

En un modelo de procesamiento de información de red neuronal artificial, esta falta de audición también resultaría en una falta de olfato (porque mientras se aprende que no hay sonido, la retropropagación cambiaría múltiples conexiones, incluidas aquellas entre las neuronas que codifican el río y el salmón) y el oso concluiría que no hay salmón y pasaría hambre.

Pero en el cerebro animal, la falta de sonido no interfiere con el conocimiento de que todavía hay olor a salmón, por lo que es probable que el salmón todavía esté allí para pescar.

Los investigadores desarrollaron una teoría matemática que demuestra que dejar que las neuronas adopten una configuración prospectiva reduce la interferencia entre la información durante el aprendizaje.

Demostraron que la configuración prospectiva explica la actividad y el comportamiento neuronal en múltiples experimentos de aprendizaje mejor que las redes neuronales artificiales.

El investigador principal, el profesor Rafal Bogacz de la Unidad de Dinámica de Redes Cerebrales del MRC y el Departamento de Neurociencias Clínicas de Nuffield de Oxford, dice:

“Actualmente existe una gran brecha entre los modelos abstractos que realizan configuraciones prospectivas y nuestro conocimiento detallado de la anatomía de las redes cerebrales.

La investigación futura de nuestro grupo tiene como objetivo cerrar la brecha entre los modelos abstractos y los cerebros reales, y comprender cómo se implementa el algoritmo de configuración prospectiva en redes corticales anatómicamente identificadas“.

El primer autor del estudio, el Dr. Yuhang Song, añade:

“En el caso del aprendizaje automático, la simulación de la configuración prospectiva en los computadores existentes es lenta porque funcionan de forma fundamentalmente diferente al cerebro biológico.

Un nuevo tipo de computador o hardware inspirado en el cerebro necesita ser desarrollado que sea capaz de implementar configuraciones prospectivas rápidamente y con poco uso de energía”.

Fuente: Nature

Leave a Reply

Your email address will not be published. Required fields are marked *