Investigadores de la Universidad de Texas afirman haber construido un algoritmo “decodificador” que puede reconstruir lo que alguien está pensando simplemente monitoreando su actividad cerebral usando un escáner de resonancia magnética ordinario.
La investigación podría sentar las bases para interfaces cerebro-computadora mucho más capaces, diseñadas para ayudar mejor a quienes no pueden hablar o escribir.
En un experimento, los investigadores utilizaron máquinas de resonancia magnética para medir los cambios en el flujo sanguíneo, no el disparo de neuronas individuales, que es infamemente “ruidoso” y difícil de descifrar, para decodificar el sentimiento más amplio o la semántica de lo que los tres sujetos del estudio estaban pensando mientras escuchando 16 horas de podcasts e historias de radio.
Usaron estos datos para entrenar un algoritmo que dicen que puede asociar estos cambios en el flujo sanguíneo con lo que los sujetos estaban escuchando actualmente.
Los resultados fueron prometedores, ya que el decodificador pudo deducir el significado “bastante bien“, dijo el neurocientífico y coautor de la Universidad de Texas, Alexander Huth.
Sin embargo, el sistema tenía algunas deficiencias.
Por ejemplo, el decodificador a menudo confundía quién decía qué en las grabaciones de radio y podcast.
En otras palabras, el algoritmo “sabe lo que sucede con bastante precisión, pero no quién está haciendo las cosas“, explicó Huth.
El algoritmo tampoco pudo usar lo que había aprendido de la semántica de los escaneos cerebrales de un participante y aplicarlo a los escaneos de otro, curiosamente.
A pesar de estas deficiencias, el decodificador incluso pudo deducir una historia cuando los participantes vieron una película muda, lo que significa que tampoco se limita al lenguaje hablado.
Eso sugiere que estos hallazgos también podrían ayudarnos a comprender las funciones de las diferentes regiones del cerebro y cómo se superponen para dar sentido al mundo.
Otros neurocientíficos, que no estaban directamente involucrados, quedaron impresionados.
Sam Nastase, investigador y profesor del Instituto de Neurociencia de Princeton, calificó la investigación como “alucinante” y dijo que “si tiene un marco de modelado lo suficientemente inteligente, puede extraer una cantidad sorprendente de información” de este tipo de grabaciones
Yukiyasu Kamitani, un neurocientífico computacional de la Universidad de Kyoto, estuvo de acuerdo y dijo que el estudio “establece una base sólida para las aplicaciones [de interfaz cerebro-computadora]”.
Fuente: The Scientist
En el marco de la conferencia re:Invent de AWS, Amazon introdujo Titan Image Generator, su…
Freepik Pikaso es una IA generativa que crea imágenes con un elemento diferencial: lo hace…
La existencia de hopfiones en cristales, demostrada por vez primera en un experimento reciente, abre…
Una nueva investigación vincula los cabezazos en el fútbol con una disminución mensurable en la…
El escaneo de 108 gigapixeles del Hirox HRX-01 de “La joven de la perla” de…
Amazon no quiere ceder espacio a Microsoft y anunció dos procesadores pensados para cómputo de…