IA que lee la mente: un avance revolucionario para ayudar a personas con afasia

IA que lee la mente: un avance revolucionario para ayudar a personas con afasia

Comparta este Artículo en:

Científicos de la Universidad de Texas han desarrollado una inteligencia artificial capaz de traducir pensamientos en texto sin necesidad de comprensión verbal. Este avance podría transformar la comunicación de personas con afasia.

Las personas con afasia, un trastorno neurológico que afecta a cerca de un millón de personas solo en Estados Unidos, se enfrentan dificultades para transformar sus pensamientos en palabras y comprender el lenguaje hablado.

La afasia está causada principalmente por daños en las áreas del cerebro responsables del lenguaje; los accidentes cerebrovasculares o ictus son la causa más común de este trastorno del lenguaje que hace que se dificulte leer, escribir y expresar lo que se quiere decir.

Otras razones incluyen traumatismos craneoencefálicos, tumores cerebrales, infecciones neurológicas y enfermedades neurodegenerativas, como el alzhéimer.

En algunos casos, la afasia también puede desarrollarse por trastornos progresivos que afectan la función cognitiva y el procesamiento del lenguaje.

Ahora, un par de investigadores de la Universidad de Texas en Austin, en Estados Unidos, han desarrollado una innovadora herramienta basada en inteligencia artificial (IA) capaz de traducir los pensamientos en texto continuo, sin necesidad de que la persona entienda palabras habladas.

Además, el proceso de entrenamiento de esta herramienta, ajustado a los patrones de actividad cerebral individuales, dura apenas una hora.

Este avance se basa en un trabajo previo del equipo que había creado un descodificador cerebral, aunque en aquel entonces requería muchas horas de entrenamiento en la actividad cerebral de una persona mientras escuchaba relatos en audio.

Este nuevo desarrollo sugiere que, con mejoras adicionales, las interfaces cerebro-computador podrían revolucionar la comunicación de las personas con afasia, como es el caso del actor Bruce Willis y Sharon Stone.

«Ser capaz de acceder a representaciones semánticas a través del lenguaje y la visión abre nuevas puertas en la neurotecnología, especialmente para quienes tienen dificultades para producir y comprender el lenguaje, explica Jerry Tang, investigador postdoctoral en la Universidad de Texas, en el laboratorio de Alex Huth, profesor de Informática y Neurociencia y autor principal del artículo.

Y añade:

Esto nos permite diseñar interfaces cerebro-computador basadas en el lenguaje sin requerir comprensión lingüística previa».

En un estudio anterior, el equipo entrenó un sistema con un modelo transformador similar a los utilizados en ChatGPT, para traducir la actividad cerebral en texto continuo.

El descodificador semántico generado podía producir texto tanto si la persona escuchaba una historia, como si pensaba en contar una o veía un video mudo con narrativa visual.

Sin embargo, existían limitaciones: para entrenar este descodificador, los participantes debían permanecer inmóviles en un escáner de resonancia magnética funcional (IRMf) durante aproximadamente dieciséis horas mientras escuchaban pódcasts, un procedimiento poco práctico para la mayoría de las personas y casi imposible para aquellos con dificultades en la comprensión del lenguaje hablado.

Además, el descodificador original solo funcionaba con las personas para las que se había entrenado específicamente.

En este último trabajo los investigadores han ideado un método para adaptar el descodificador preexistente a nuevas personas con apenas una hora de entrenamiento en el escáner IRMf mientras observan videos mudos y cortos, como los de Pixar.

Para lograrlo, desarrollaron un algoritmo convertidor que aprende a correlacionar la actividad cerebral de un nuevo participante con la de alguien cuyo cerebro ya había sido utilizado para entrenar el descodificador original.

Esto permite una decodificación efectiva en una fracción del tiempo requerido anteriormente.

Huth dice que este trabajo revela algo profundo sobre cómo funciona nuestro cerebro: nuestros pensamientos trascienden el lenguaje.

Sin duda alguna, este avance arroja luz sobre el funcionamiento del cerebro humano y la naturaleza del pensamiento.

«Esto revela un sorprendente solapamiento entre la actividad cerebral cuando alguien escucha una historia y cuando ve un video que narra una historia, explica Huth en un comunicado de la Universidad de Texas.

Y añade:

Nuestro cerebro trata ambos tipos de narración de manera similar.

Esto también indica que lo que estamos descodificando no es estrictamente lenguaje, sino representaciones conceptuales que trascienden la modalidad lingüística».

Los investigadores observaron que, al igual que con su descodificador cerebral original, su sistema mejorado sólo funciona con participantes cooperativos que participan voluntariamente en el entrenamiento.

Si los participantes en los que se ha entrenado el descodificador oponen posteriormente resistencia, por ejemplo, pensando otras cosas, los resultados son inutilizables. Esto reduce las posibilidades de uso indebido.

Aunque hasta ahora han probado el sistema en sujetos neurológicamente sanos, también realizaron simulaciones de patrones de lesiones cerebrales para imitar la afasia en los participantes.

Los resultados mostraron que el descodificador seguía siendo capaz de traducir en texto continuo las historias que estos percibían, lo que sugiere que la herramienta podría ser efectiva en personas con afasia.

Actualmente, el equipo colabora con Maya Henry, profesora asociada de la Facultad de Medicina Dell y de la Facultad de Comunicación Moody de la Universidad de Texas, quien estudia la afasia, para evaluar la eficacia del descodificador en personas con este trastorno.

«Ha sido emocionante y gratificante pensar en cómo diseñar la interfaz más útil y hacer que el procedimiento de entrenamiento del modelo sea lo más accesible posible para los participantes, señala Tang.

Y añade:

Me entusiasma seguir explorando cómo nuestro descodificador puede ayudar a mejorar la comunicación de las personas con afasia».

Fuente: Cell

 

Leave a Reply

Your email address will not be published. Required fields are marked *