Los acordes de la guitarra resuenan extrañamente, como si emanaran del fondo de un pozo.
La voz del cantante también es distorsionada, sus letras son apenas inteligibles.
Sin embargo, si sabes lo que viene, la canción es reconocible.
Es un fragmento de “Another Brick in the Wall (Part 1)” del álbum “The Wall”, que fue un gran éxito en 1979 para la banda de rock británica Pink Floyd.
Y fue recreado a partir de grabaciones cerebrales de personas que lo escucharon.
La melodía reconstruida proporciona nuevos conocimientos sobre dónde se procesa la música en el cerebro.
La reconstrucción es un “tour de force técnico” que proporciona una nueva visión de cómo el cerebro entiende la música, dice Robert Zatorre, neurocientífico de la Universidad McGill que no participó en el estudio.
Al igual que la canción, las grabaciones cerebrales son antiguas.
Hace más de 10 años, neurocientíficos del Centro Médico de Albany registraron la actividad de los electrodos insertados en los cerebros de las personas con epilepsia.
Los médicos colocaron 2668 electrodos en el cerebro de cada uno de los 29 pacientes para registrar la actividad cerebral durante una convulsión.
Sin embargo, el procedimiento también brindó a los investigadores una rara oportunidad de investigar cómo responde el cerebro a la música.
Para la gran mayoría de las personas, las estructuras responsables de comprender el lenguaje hablado residen en el hemisferio izquierdo del cerebro.
Pero múltiples estudios han sugerido que la percepción de la música se basa en una red de regiones cerebrales mucho más amplia y compleja, que puede incluir ambos hemisferios.
¿Por qué los investigadores de Albany que recopilaron los datos eligieron reproducir esta canción en particular para los participantes?
“Simplemente aman a Pink Floyd”, dice Ludovic Bellier, neurocientífico e investigador computacional de la Universidad de California (UC), Berkeley, quien dirigió el nuevo estudio que aprovecha esas grabaciones cerebrales.
Los pacientes en realidad escucharon varias canciones, explica, incluido el éxito más famoso de la banda, “Another Brick in the Wall (Parte 2)”.
Pero las grabaciones cerebrales más detalladas provinieron de aquellos que escucharon la pista menos conocida.
Fragmento original utilizado en el estudio:
Fragmento reconstruido a partir de ondas cerebrales:
El equipo de Bellier usó estas grabaciones para entrenar un modelo computacional para reconocer qué patrones de actividad cerebral correspondían a qué características musicales.
“Si eres un pianista realmente consumado y observas a alguien tocar las teclas del piano, puedes reconstruir fácilmente lo que están tocando“, dice el coautor del estudio, Robert Knight, psicólogo y neurocientífico de UC Berkeley.
El equipo esperaba que su modelo pudiera reconstruir de manera similar una versión reconocible de la canción original.
Algunos electrodos funcionaron como teclas de piano individuales que representan notas individuales, explica Knight, pero el algoritmo también necesitaba interpretar elementos acústicos más complejos, incluidos el volumen y el ritmo.
Específicamente, los investigadores entrenaron el algoritmo en aproximadamente el 90 % de la canción.
Luego demostraron que, con ese entrenamiento, podía reproducir el resto de la melodía, un fragmento de 15 segundos del medio retenido específicamente para probar el modelo.
Pero el equipo de Bellier no solo estaba interesado en “leer la mente”, dice Sylvain Baillet, neurocientífico de McGill que no participó en el trabajo.
Los investigadores también intentaron identificar las áreas del cerebro responsables de percibir diferentes características musicales.
Para hacer eso, alimentaron el modelo con grabaciones neuronales en las que se habían eliminado los datos de algunos electrodos y observaron el efecto en la canción recreada.
Ese enfoque reveló una región del cerebro recientemente identificada que está involucrada en la percepción del ritmo musical, como el sonido de la guitarra en “Another Brick in the Wall (Parte 1)“, informan los investigadores.
El trabajo también confirma que la percepción musical, a diferencia del procesamiento normal del habla, involucra ambas mitades del cerebro.
Bellier espera que esta investigación algún día pueda usarse para ayudar a los pacientes que luchan por hablar como resultado de accidentes cerebrovasculares, lesiones o enfermedades degenerativas como la esclerosis lateral amiotrófica.
Gracias a los avances en la tecnología de asistencia, muchos de estos pacientes pueden comunicarse mediante interfaces cerebro-máquina, lo cual es “un avance fantástico“, dice Bellier.
Pero estas tecnologías no logran reproducir adecuadamente la naturaleza musical del habla, señala, por lo que las voces de los pacientes suenan forzadas y robóticas.
Las interfaces cerebro-máquina que dependen de la inteligencia artificial podrían explicar estos elementos musicales, lo que permitiría a los pacientes comunicarse de forma más natural, especula.
Por ahora, tecnología como la utilizada en el nuevo estudio requiere cirugía invasiva, porque esos registros detallados deben provenir de la superficie del cerebro.
Pero a medida que mejoren las técnicas, es posible que algún día sea posible realizar tales registros sin tener que abrir el cráneo, tal vez utilizando electrodos adheridos al cuero cabelludo.
Otra limitación del estudio: no tuvo en cuenta si a los pacientes que escuchaban Pink Floyd les gustaba la canción o la habían escuchado antes.
Esos factores podrían haber influido en su actividad cerebral y, por lo tanto, en el rendimiento del modelo de decodificación.
“La familiaridad forja nuestra percepción del mundo”, señala Baillet.
“La apreciación de la música es una experiencia muy subjetiva”.
Fuente: Science
Biólogos han producido una cepa de levadura cuyo genoma está compuesto en más de un…
Antes de que el ser humano pisara la Luna, ya había ingenieros tratando de resolver…
La empresa polaca de bebidas Dictador anunció que había designado a un robot llamado Mika…
Investigadores de la Universidad de Leeds han introducido una red neuronal que puede trazar con…
La empresa china LONGi ha batido el récord de eficiencia de una célula fotovoltaica con…
Samsung ha presentado Gauss, su propio modelo de inteligencia artificial generativa. Puede procesar lenguaje natural,…