Categorías: Ciencia

Descubren forma de leer los pensamientos usando un escáner de resonancia magnética

Comparta este Artículo en:

Investigadores de la Universidad de Texas afirman haber construido un algoritmo “decodificador” que puede reconstruir lo que alguien está pensando simplemente monitoreando su actividad cerebral usando un escáner de resonancia magnética ordinario.

La investigación podría sentar las bases para interfaces cerebro-computadora mucho más capaces, diseñadas para ayudar mejor a quienes no pueden hablar o escribir.

En un experimento, los investigadores utilizaron máquinas de resonancia magnética para medir los cambios en el flujo sanguíneo, no el disparo de neuronas individuales, que es infamemente “ruidoso” y difícil de descifrar, para decodificar el sentimiento más amplio o la semántica de lo que los tres sujetos del estudio estaban pensando mientras escuchando 16 horas de podcasts e historias de radio.

Usaron estos datos para entrenar un algoritmo que dicen que puede asociar estos cambios en el flujo sanguíneo con lo que los sujetos estaban escuchando actualmente.

Los resultados fueron prometedores, ya que el decodificador pudo deducir el significado “bastante bien“, dijo el neurocientífico y coautor de la Universidad de Texas, Alexander Huth.

Sin embargo, el sistema tenía algunas deficiencias.

Por ejemplo, el decodificador a menudo confundía quién decía qué en las grabaciones de radio y podcast.

En otras palabras, el algoritmo “sabe lo que sucede con bastante precisión, pero no quién está haciendo las cosas“, explicó Huth.

El algoritmo tampoco pudo usar lo que había aprendido de la semántica de los escaneos cerebrales de un participante y aplicarlo a los escaneos de otro, curiosamente.

A pesar de estas deficiencias, el decodificador incluso pudo deducir una historia cuando los participantes vieron una película muda, lo que significa que tampoco se limita al lenguaje hablado.

Eso sugiere que estos hallazgos también podrían ayudarnos a comprender las funciones de las diferentes regiones del cerebro y cómo se superponen para dar sentido al mundo.

Otros neurocientíficos, que no estaban directamente involucrados, quedaron impresionados.

Sam Nastase, investigador y profesor del Instituto de Neurociencia de Princeton, calificó la investigación como “alucinante” y dijo que “si tiene un marco de modelado lo suficientemente inteligente, puede extraer una cantidad sorprendente de información” de este tipo de grabaciones

Yukiyasu Kamitani, un neurocientífico computacional de la Universidad de Kyoto, estuvo de acuerdo y dijo que el estudio “establece una base sólida para las aplicaciones [de interfaz cerebro-computadora]”.

Fuente: The Scientist

Editor PDM

Entradas recientes

Presentan inteligencia artificial diseñada para estudiantes y profesores

Claude para la Educación es la nueva IA de Anthropic que busca competir con ChatGPT…

20 hours hace

El marcapasos más pequeño del mundo es inyectable y funciona con luz

Ingenieros de la Universidad Northwestern han desarrollado el marcapasos más pequeño del mundo. (more…)

20 hours hace

Inteligencia artificial ha superado oficialmente la prueba de Turing

Uno de los principales modelos de lenguaje de gran tamaño de la industria ha superado…

20 hours hace

Hemos comenzado a entender por qué la IA hace las cosas como las hace, cómo piensa

La IA no tienen ni idea de lo que dice ni por qué lo dice.…

20 hours hace

La energía oscura parece estar cambiando

Se planteó la hipótesis de que la energía oscura, la misteriosa fuerza que compone el…

20 hours hace

Convierten células de la piel directamente en neuronas para terapia celular

Científicos del MIT han desarrollado un método revolucionario para convertir células de la piel en…

2 days hace
Click to listen highlighted text!