El cerebro puede almacenar casi 10 veces más datos de lo que se pensaba

El cerebro puede almacenar casi 10 veces más datos de lo que se pensaba

Comparta este Artículo en:

Científicos aprovecharon un nuevo método para medir con precisión la cantidad de información que el cerebro puede almacenar y podría ayudar a mejorar nuestra comprensión del aprendizaje.

Al igual que en las computadoras, el almacenamiento de memoria del cerebro se mide en “bits“, y la cantidad de bits que puede contener depende de las conexiones entre sus neuronas, conocidas como sinapsis.

Históricamente, los científicos pensaban que las sinapsis tenían un número bastante limitado de tamaños y potencias, y esto a su vez limitaba la capacidad de almacenamiento del cerebro.

Sin embargo, esta teoría ha sido cuestionada en los últimos años, y el nuevo estudio respalda aún más la idea de que el cerebro puede contener aproximadamente 10 veces más de lo que se pensaba.

En el nuevo estudio, los investigadores desarrollaron un método muy preciso para evaluar la fuerza de las conexiones entre las neuronas en parte del cerebro de una rata.

Estas sinapsis forman la base del aprendizaje y la memoria, ya que las células cerebrales se comunican en estos puntos y así almacenan y comparten información.

Al comprender mejor cómo se fortalecen y debilitan las sinapsis, y en qué medida, los científicos cuantificaron con mayor precisión cuánta información pueden almacenar estas conexiones.

El análisis demuestra cómo este nuevo método podría no sólo aumentar nuestra comprensión del aprendizaje sino también del envejecimiento y las enfermedades que erosionan las conexiones en el cerebro.

“Estos enfoques llegan al corazón de la capacidad de procesamiento de información de los circuitos neuronales“, dijo Jai Yu, profesor asistente de neurofisiología en la Universidad de Chicago que no participó en la investigación.

“Poder estimar cuánta información se puede representar potencialmente es un paso importante hacia la comprensión de la capacidad del cerebro para realizar cálculos complejos”.

En el cerebro humano existen más de 100 billones de sinapsis entre neuronas.

Se lanzan mensajeros químicos a través de estas sinapsis, lo que facilita la transferencia de información a través del cerebro.

A medida que aprendemos, aumenta la transferencia de información a través de sinapsis específicas.

Este “fortalecimiento” de las sinapsis nos permite retener la nueva información.

En general, las sinapsis se fortalecen o debilitan en respuesta a cuán activas son las neuronas que las constituyen, un fenómeno llamado plasticidad sináptica.

Sin embargo, a medida que envejecemos o desarrollamos enfermedades neurológicas, como el Alzheimer, nuestras sinapsis se vuelven menos activas y, por lo tanto, se debilitan, lo que reduce el rendimiento cognitivo y nuestra capacidad para almacenar y recuperar recuerdos.

Los científicos pueden medir la fuerza de las sinapsis observando sus características físicas.

Además, los mensajes enviados por una neurona a veces activan un par de sinapsis, y los científicos pueden utilizar estos pares para estudiar la precisión de la plasticidad sináptica.

En otras palabras, dado el mismo mensaje, ¿cada sinapsis del par se fortalece o debilita exactamente de la misma manera?

Medir la precisión de la plasticidad sináptica ha resultado difícil en el pasado, al igual que medir cuánta información puede almacenar una sinapsis determinada. El nuevo estudio cambia eso.

Para medir la fuerza y ​​la plasticidad sinápticas, el equipo aprovechó la teoría de la información, una forma matemática de comprender cómo se transmite la información a través de un sistema.

Este enfoque también permite a los científicos cuantificar cuánta información se puede transmitir a través de las sinapsis, teniendo en cuenta también el “ruido de fondo” del cerebro.

Esta información transmitida se mide en bits, de modo que una sinapsis con una mayor cantidad de bits puede almacenar más información que una con menos bits, dijo Terrence Sejnowski, coautor principal del estudio y jefe del Laboratorio de Neurobiología Computacional del Instituto Salk de Estudios Biológicos.

Un bit corresponde a una sinapsis que envía transmisiones con dos intensidades, mientras que dos bits permiten cuatro intensidades, y así sucesivamente.

El equipo analizó pares de sinapsis del hipocampo de una rata, una región del cerebro que desempeña un papel importante en el aprendizaje y la formación de la memoria.

Estos pares de sinapsis eran vecinos y se activaban en respuesta al mismo tipo y cantidad de señales cerebrales.

El equipo determinó que, dada la misma información, estos pares se fortalecieron o debilitaron exactamente en la misma cantidad, lo que sugiere que el cerebro es muy preciso al ajustar la fuerza de una sinapsis determinada.

El análisis sugirió que las sinapsis en el hipocampo pueden almacenar entre 4,1 y 4,6 bits de información.

Los investigadores habían llegado a una conclusión similar en un estudio anterior del cerebro de rata, pero en ese momento habían analizado los datos con un método menos preciso.

El nuevo estudio ayuda a confirmar lo que muchos neurocientíficos suponen ahora: que las sinapsis transportan mucho más de un bit cada una, dijo a Kevin Fox, profesor de neurociencia en la Universidad de Cardiff en el Reino Unido, que no participó en la investigación.

Los hallazgos se basan en un área muy pequeña del hipocampo de la rata, por lo que no está claro cómo se ampliarían a un cerebro humano o de rata completo.

Sería interesante determinar cómo varía esta capacidad de almacenamiento de información en el cerebro y entre especies, dijo Yu.

En el futuro, el método del equipo también podría usarse para comparar la capacidad de almacenamiento de diferentes áreas del cerebro, afirmó Fox. También podría usarse para estudiar una sola área del cerebro cuando está sana y cuando está enferma.

Fuente: LiveScience

Leave a Reply

Your email address will not be published. Required fields are marked *