La prótesis decodifica señales del centro del habla del cerebro para predecir qué sonido alguien está tratando de decir.
Una prótesis del habla desarrollada por un equipo colaborativo de neurocientíficos, neurocirujanos e ingenieros de Duke puede traducir las señales cerebrales de una persona en lo que está tratando de decir.
La nueva tecnología podría algún día ayudar a las personas que no pueden hablar debido a trastornos neurológicos a recuperar la capacidad de comunicarse a través de una interfaz cerebro-computadora.
“Hay muchos pacientes que sufren trastornos motores debilitantes, como ELA (esclerosis lateral amiotrófica) o síndrome de enclaustramiento, que pueden afectar su capacidad para hablar“, dijo Gregory Cogan, Ph.D., profesor de neurología en la Universidad de Duke y uno de los investigadores principales involucrados en el proyecto.
“Pero las herramientas actuales disponibles para permitirles comunicarse son generalmente muy lentas y engorrosas”.
Imagínate escuchar un audiolibro a media velocidad. Esa es la mejor velocidad de decodificación de voz disponible actualmente, que alcanza aproximadamente 78 palabras por minuto.
Sin embargo, la gente habla alrededor de 150 palabras por minuto.
El retraso entre la velocidad del habla hablada y decodificada se debe en parte a los relativamente pocos sensores de actividad cerebral que pueden fusionarse en una pieza de material delgada como un papel que se encuentra sobre la superficie del cerebro.
Menos sensores proporcionan información menos descifrable para decodificar.
Para mejorar las limitaciones del pasado, Cogan se asoció con Jonathan Viventi, Ph.D., miembro de la facultad del Instituto Duke de Ciencias del Cerebro, cuyo laboratorio de ingeniería biomédica se especializa en la fabricación de sensores cerebrales de alta densidad, ultrafinos y flexibles.
Para este proyecto, Viventi y su equipo empaquetaron la impresionante cantidad de 256 sensores cerebrales microscópicos en una pieza de plástico flexible de grado médico del tamaño de un sello postal.
Las neuronas que están a sólo un grano de arena de distancia pueden tener patrones de actividad tremendamente diferentes al coordinar el habla, por lo que es necesario distinguir las señales de las células cerebrales vecinas para ayudar a hacer predicciones precisas sobre el habla prevista.
Después de fabricar el nuevo implante, Cogan y Viventi se asociaron con varios neurocirujanos del Hospital de la Universidad de Duke, incluidos Derek Southwell, M.D., Ph.D., Nandan Lad, M.D., Ph.D., y Allan Friedman, M.D., quienes ayudaron a reclutar a cuatro pacientes. para probar los implantes.
El experimento requirió que los investigadores colocaran el dispositivo temporalmente en pacientes que se sometían a una cirugía cerebral por alguna otra afección, como el tratamiento de la enfermedad de Parkinson o la extirpación de un tumor.
Cogan y su equipo tuvieron tiempo limitado para probar su dispositivo en el quirófano.
“Me gusta compararlo con un equipo de boxes de NASCAR“, dijo Cogan.
“No queremos añadir más tiempo al procedimiento operativo, por lo que teníamos que entrar y salir en 15 minutos.
Tan pronto como el cirujano y el equipo médico dijeron: “¡Vamos!”, nos apresuramos a actuar y el paciente realizó la tarea”.
La tarea consistía en una simple actividad de escuchar y repetir.
Los participantes escucharon una serie de palabras sin sentido, como “ava”, “kug” o “vip”, y luego pronunciaron cada una de ellas en voz alta.
El dispositivo registró la actividad de la corteza motora del habla de cada paciente mientras coordinaba casi 100 músculos que mueven los labios, la lengua, la mandíbula y la laringe.
Posteriormente, Suseendrakumar Duraivel, primer autor del nuevo informe y estudiante de posgrado en ingeniería biomédica en Duke, tomó los datos neuronales y del habla de la sala de cirugía y los introdujo en un algoritmo de aprendizaje automático para ver con qué precisión podía predecir qué sonido se estaba emitiendo basándose únicamente en los registros de la actividad cerebral.
Para algunos sonidos y participantes, como /g/ en la palabra “gak”, el decodificador acertó el 84% de las veces cuando era el primer sonido de una cadena de tres que formaba una palabra sin sentido determinada.
Sin embargo, la precisión disminuyó cuando el decodificador analizó los sonidos en el medio o al final de una palabra sin sentido.
También tuvo problemas si dos sonidos eran similares, como /p/ y /b/.
En general, el decodificador fue preciso el 40% del tiempo.
Puede parecer una puntuación de prueba humilde, pero fue bastante impresionante dado que proezas técnicas similares del cerebro al habla requieren horas o días de datos para extraerlos.
Sin embargo, el algoritmo de decodificación de voz que utilizó Duraivel funcionó con sólo 90 segundos de datos hablados de la prueba de 15 minutos.
Duraivel y sus mentores están entusiasmados con la idea de fabricar una versión inalámbrica del dispositivo con una reciente subvención de 2,4 millones de dólares de los Institutos Nacionales de Salud.
“Ahora estamos desarrollando el mismo tipo de dispositivos de grabación, pero sin cables”, dijo Cogan.
“Podrías moverte y no tendrías que estar atado a un tomacorriente, lo cual es realmente emocionante”.
Si bien su trabajo es alentador, aún queda un largo camino por recorrer para que la prótesis del habla de Viventi y Cogan llegue pronto a los estantes.
“Estamos en un punto en el que todavía es mucho más lento que el habla natural“, dijo Viventi en un artículo reciente de la revista Duke sobre la tecnología, “pero se puede ver la trayectoria en la que se podría llegar allí”.
Fuente: Nature