Investigadores de la Universidad de Texas afirman haber construido un algoritmo “decodificador” que puede reconstruir lo que alguien está pensando simplemente monitoreando su actividad cerebral usando un escáner de resonancia magnética ordinario.
La investigación podría sentar las bases para interfaces cerebro-computadora mucho más capaces, diseñadas para ayudar mejor a quienes no pueden hablar o escribir.
En un experimento, los investigadores utilizaron máquinas de resonancia magnética para medir los cambios en el flujo sanguíneo, no el disparo de neuronas individuales, que es infamemente “ruidoso” y difícil de descifrar, para decodificar el sentimiento más amplio o la semántica de lo que los tres sujetos del estudio estaban pensando mientras escuchando 16 horas de podcasts e historias de radio.
Usaron estos datos para entrenar un algoritmo que dicen que puede asociar estos cambios en el flujo sanguíneo con lo que los sujetos estaban escuchando actualmente.
Los resultados fueron prometedores, ya que el decodificador pudo deducir el significado “bastante bien“, dijo el neurocientífico y coautor de la Universidad de Texas, Alexander Huth.
Sin embargo, el sistema tenía algunas deficiencias.
Por ejemplo, el decodificador a menudo confundía quién decía qué en las grabaciones de radio y podcast.
En otras palabras, el algoritmo “sabe lo que sucede con bastante precisión, pero no quién está haciendo las cosas“, explicó Huth.
El algoritmo tampoco pudo usar lo que había aprendido de la semántica de los escaneos cerebrales de un participante y aplicarlo a los escaneos de otro, curiosamente.
A pesar de estas deficiencias, el decodificador incluso pudo deducir una historia cuando los participantes vieron una película muda, lo que significa que tampoco se limita al lenguaje hablado.
Eso sugiere que estos hallazgos también podrían ayudarnos a comprender las funciones de las diferentes regiones del cerebro y cómo se superponen para dar sentido al mundo.
Otros neurocientíficos, que no estaban directamente involucrados, quedaron impresionados.
Sam Nastase, investigador y profesor del Instituto de Neurociencia de Princeton, calificó la investigación como “alucinante” y dijo que “si tiene un marco de modelado lo suficientemente inteligente, puede extraer una cantidad sorprendente de información” de este tipo de grabaciones
Yukiyasu Kamitani, un neurocientífico computacional de la Universidad de Kyoto, estuvo de acuerdo y dijo que el estudio “establece una base sólida para las aplicaciones [de interfaz cerebro-computadora]”.
Fuente: The Scientist
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)
Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…
El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…
Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…
Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…
Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…