Categorías: Ciencia

Descubren forma de leer los pensamientos usando un escáner de resonancia magnética

Comparta este Artículo en:

Investigadores de la Universidad de Texas afirman haber construido un algoritmo “decodificador” que puede reconstruir lo que alguien está pensando simplemente monitoreando su actividad cerebral usando un escáner de resonancia magnética ordinario.

La investigación podría sentar las bases para interfaces cerebro-computadora mucho más capaces, diseñadas para ayudar mejor a quienes no pueden hablar o escribir.

En un experimento, los investigadores utilizaron máquinas de resonancia magnética para medir los cambios en el flujo sanguíneo, no el disparo de neuronas individuales, que es infamemente “ruidoso” y difícil de descifrar, para decodificar el sentimiento más amplio o la semántica de lo que los tres sujetos del estudio estaban pensando mientras escuchando 16 horas de podcasts e historias de radio.

Usaron estos datos para entrenar un algoritmo que dicen que puede asociar estos cambios en el flujo sanguíneo con lo que los sujetos estaban escuchando actualmente.

Los resultados fueron prometedores, ya que el decodificador pudo deducir el significado “bastante bien“, dijo el neurocientífico y coautor de la Universidad de Texas, Alexander Huth.

Sin embargo, el sistema tenía algunas deficiencias.

Por ejemplo, el decodificador a menudo confundía quién decía qué en las grabaciones de radio y podcast.

En otras palabras, el algoritmo “sabe lo que sucede con bastante precisión, pero no quién está haciendo las cosas“, explicó Huth.

El algoritmo tampoco pudo usar lo que había aprendido de la semántica de los escaneos cerebrales de un participante y aplicarlo a los escaneos de otro, curiosamente.

A pesar de estas deficiencias, el decodificador incluso pudo deducir una historia cuando los participantes vieron una película muda, lo que significa que tampoco se limita al lenguaje hablado.

Eso sugiere que estos hallazgos también podrían ayudarnos a comprender las funciones de las diferentes regiones del cerebro y cómo se superponen para dar sentido al mundo.

Otros neurocientíficos, que no estaban directamente involucrados, quedaron impresionados.

Sam Nastase, investigador y profesor del Instituto de Neurociencia de Princeton, calificó la investigación como “alucinante” y dijo que “si tiene un marco de modelado lo suficientemente inteligente, puede extraer una cantidad sorprendente de información” de este tipo de grabaciones

Yukiyasu Kamitani, un neurocientífico computacional de la Universidad de Kyoto, estuvo de acuerdo y dijo que el estudio “establece una base sólida para las aplicaciones [de interfaz cerebro-computadora]”.

Fuente: The Scientist

Editor PDM

Entradas recientes

Mano robótica capaz de manipular objetos

Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)

3 days hace

Robots atraviesan entornos complejos sin sensores adicionales ni entrenamiento previo en terrenos difíciles

Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…

3 days hace

Rompiendo barreras: IA para interpretar el lenguaje de señas americano en tiempo real

El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…

3 days hace

Dispositivo ayuda a personas con discapacidad visual a realizar tareas de localización tan bien como las personas videntes

Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…

3 days hace

Google lanza una versión de Gemini 2.0 capaz de razonar

Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…

3 days hace

El siguiente paso de la computación cuántica: un nuevo algoritmo potencia la multitarea

Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…

4 days hace
Click to listen highlighted text!