Un hombre que no puede hablar después de un derrame cerebral ha producido oraciones a través de un sistema que lee señales eléctricas de las áreas de producción del habla de su cerebro.
El enfoque se ha utilizado anteriormente en voluntarios sin discapacidades para reconstruir oraciones habladas o imaginarias.
Pero esta primera demostración en una persona paralizada que “aborda realmente el problema principal que quedó por abordar: llevar esto a los pacientes que realmente lo necesitan“, dice Christian Herff, un científico informático de la Universidad de Maastricht que no participó en el nuevo trabajo.
El participante tuvo un derrame cerebral hace más de una década que lo dejó con anartria, una incapacidad para controlar los músculos involucrados en el habla.
Debido a que sus extremidades también están paralizadas, se comunica seleccionando letras en una pantalla con pequeños movimientos de la cabeza, produciendo aproximadamente cinco palabras por minuto.
Para permitir una comunicación más rápida y natural, el neurocirujano Edward Chang de la Universidad de California en San Francisco, probó un enfoque que utiliza un modelo computacional conocido como algoritmo de aprendizaje profundo para interpretar patrones de actividad cerebral en la corteza sensoriomotora, una región del cerebro involucrada. en la producción del habla.
Hasta ahora, el enfoque se ha probado en voluntarios a los que se les han implantado quirúrgicamente electrodos por motivos ajenos a la investigación, como para controlar las crisis epilépticas.
En el nuevo estudio, el equipo de Chang extrajo temporalmente una parte del cráneo del participante y colocó una fina hoja de electrodos más pequeña que una tarjeta de crédito directamente sobre su corteza sensoriomotora.
Para “entrenar” un algoritmo informático para asociar los patrones de actividad cerebral con el inicio del habla y con palabras particulares, el equipo necesitaba información confiable sobre lo que el hombre pretendía decir y cuándo.
Entonces, los investigadores presentaron repetidamente una de las 50 palabras en una pantalla y le pidieron al hombre que intentara decirla en el momento justo.
Una vez que el algoritmo fue entrenado con datos de la tarea de palabras individuales, el hombre trató de leer oraciones construidas con el mismo conjunto de 50 palabras, como “Trae mis lentes, por favor“.
Para mejorar las conjeturas del algoritmo, los investigadores agregaron un componente de procesamiento llamado modelo de lenguaje natural, que usa secuencias de palabras comunes para predecir la siguiente palabra probable en una oración.
Con ese enfoque, el sistema solo entendió mal alrededor del 25% de las palabras en una oración, informaron en The New England Journal of Medicine.
Eso es “bastante impresionante“, dice Stephanie Riès-Cornou, neurocientífica de la Universidad Estatal de San Diego.
(La tasa de error para el rendimiento de probabilidad sería del 92%).
Debido a que el cerebro se reorganiza con el tiempo, no estaba claro que las áreas de producción del habla dieran señales interpretables después de más de 10 años de anartria, señala Anne-Lise Giraud, neurocientífica de la Universidad de Ginebra.
La preservación de las señales “es sorprendente“, dice.
Y Herff dice que el equipo dio un paso “gigantesco” al generar oraciones mientras el hombre intentaba hablar en lugar de partir de datos cerebrales registrados previamente, como han hecho la mayoría de los estudios.
Con el nuevo enfoque, el hombre podría producir oraciones a una velocidad de hasta 18 palabras por minuto, dice Chang.
Eso es aproximadamente comparable a la velocidad alcanzada con otra interfaz cerebro-computadora, descrita en Nature en mayo.
Ese sistema decodificaba letras individuales de la actividad en un área del cerebro responsable de planificar los movimientos de las manos mientras una persona que estaba paralizada imaginaba la escritura a mano.
Estas velocidades aún están lejos de las 120 a 180 palabras por minuto típicas del inglés conversacional, observa Riès-Cornou, pero superan con creces lo que el participante puede lograr con su dispositivo controlado por la cabeza.
El sistema no está listo para usarse en la vida cotidiana, señala Chang.
Las mejoras futuras incluirán expandir su repertorio de palabras y hacerlo inalámbrico, de modo que el usuario no esté atado a una computadora del tamaño de una mininevera.
Fuente: NEJM
Tiene, además, otras ventajas frente a Sora, la IA de OpenAI. (more…)
Se parece a la cabeza alargada del xenomorfo de 'Alien'. (more…)
Científicos de la Universidad Estatal de Pensilvania afirman haber sido los primeros en imprimir en…
El nivel del mar sube y baja dos veces al día en todo el mundo.…
Un equipo de investigadores del University College London y del Great Ormond Street Hospital en…
La ZTE Nubia Pad 3D II es la primera tableta 5G e IA del mundo…