Científicos del MIT han identificado una población de neuronas que responde al canto pero no a otros tipos de música.
Escuchar a Billie Eilish cantando no es lo mismo que escuchar a Billie Eilish recitar la letra de su último éxito (sin música) o que escuchar la melodía (sin voz) de la misma canción de Billie Eilish.
Eso es de lógica, pero lo que ahora han descubierto neurocientíficos del Instituto de Tecnología de Massachusetts (MIT) es que nuestro cerebro responde de manera diferente a cada una de esas experiencias.
Los investigadores han identificado una población de neuronas que se ‘enciende’ únicamente cuando escuchamos la combinación específica de voz y música, pero no ante la música instrumental ni el habla normal.
El nuevo trabajo se basa en un estudio de 2015 en el que el mismo equipo de investigación utilizó imágenes de resonancia magnética funcional (fMRI) para identificar una población de neuronas en la corteza auditiva del cerebro que responde específicamente a la música.
Los investigadores escanearon los cerebros de los participantes mientras escuchaban una colección de 165 sonidos, incluidos diferentes tipos de habla y música, así como sonidos cotidianos como el golpeteo de los dedos o el ladrido de un perro.
Para ese estudio, los investigadores idearon un método novedoso para analizar los datos de fMRI, que les permitió identificar seis poblaciones neuronales con diferentes patrones de respuesta, incluida que respondía de forma selectiva a la música y otra que lo hacía al habla.
En el nuevo estudio, los investigadores utilizaron una técnica conocida como electrocorticografía (ECoG), que permite registrar la actividad eléctrica mediante electrodos colocados dentro del cráneo.
Esto ofrece una imagen mucho más precisa en comparación con la IRMf, que mide el flujo sanguíneo como indicador de la actividad neuronal.
«Hay una población de neuronas que responde al canto, y luego, muy cerca, hay otra población de neuronas que responde ampliamente a mucha música.
A la escala de resonancia magnética funcional, están tan cerca que no se pueden separar, pero con las grabaciones intracraneales, obtenemos una resolución adicional, y eso es lo que creemos que nos permitió separarlos», explica Sam Norman-Haignere, expostdoctorado del MIT que ahora es profesor de neurociencia en la Universidad de Rochester.
Por lo general, la electrocorticografía no se puede realizar en humanos porque es un procedimiento invasivo, pero a menudo se utiliza para controlar a los pacientes con epilepsia que están a punto de someterse a una cirugía para tratar sus convulsiones.
Los pacientes son monitoreados durante varios días para que los médicos puedan determinar dónde se originan sus convulsiones antes de operar.
Durante ese tiempo, si los pacientes están de acuerdo, pueden participar en estudios que implican medir su actividad cerebral mientras realizan ciertas tareas.
Para este estudio, el equipo del MIT pudo recopilar datos de quince participantes durante varios años.
Para esos participantes, los investigadores tocaron el mismo conjunto de 165 sonidos que usaron en el estudio anterior de IRMf.
Los cirujanos determinaron la ubicación de los electrodos de cada paciente, por lo que algunos no detectaron ninguna respuesta a la entrada auditiva, pero muchos sí.
Usando un nuevo análisis estadístico que desarrollaron, los investigadores pudieron inferir los tipos de poblaciones neuronales que produjeron los datos registrados por cada electrodo.
«Cuando aplicamos este método a este conjunto de datos, apareció este patrón de respuesta neuronal que solo respondía al canto», dice Norman-Haignere.
«Este fue un hallazgo que realmente no esperábamos, por lo que justifica en gran medida el objetivo del enfoque, que es revelar cosas potencialmente novedosas que quizás no pienses buscar», añade.
Esa población de neuronas específica de la canción tuvo respuestas muy débiles al habla o a la música instrumental y, por lo tanto, es distinta de las poblaciones selectivas de la música y el habla identificadas en su estudio de 2015.
En la segunda parte de su estudio, los investigadores idearon un método matemático para combinar los datos de las grabaciones intracraneales con los datos de fMRI de su estudio anterior.
Debido a que fMRI puede cubrir una porción mucho más grande del cerebro, esto les permitió determinar con mayor precisión las ubicaciones de las poblaciones neuronales que responden al canto.
El punto de acceso específico de la canción que encontraron está ubicado en la parte superior del lóbulo temporal, cerca de las regiones que son selectivas para el lenguaje y la música.
Esa ubicación sugiere que la población específica de la canción puede estar respondiendo a características como el tono percibido o la interacción entre las palabras y el tono percibido, antes de enviar información a otras partes del cerebro para su posterior procesamiento, dicen los investigadores.
Los investigadores ahora esperan aprender más sobre qué aspectos del canto impulsan las respuestas de estas neuronas.
También están trabajando para estudiar si los bebés tienen áreas selectivas de música, con la esperanza de aprender más sobre cuándo y cómo se desarrollan estas regiones del cerebro.
Fuente: Current Biology