Para muchas personas que están paralizadas e incapaces de hablar, las señales de lo que les gustaría decir se esconden en sus cerebros.
Nadie ha podido descifrar esas señales directamente.
Pero tres equipos de investigación recientemente lograron avances en convertir datos de electrodos colocados quirúrgicamente en el cerebro en palabras generadas por computadora.
Usando modelos computacionales conocidos como redes neuronales, reconstruyeron palabras y oraciones que, en algunos casos, eran inteligibles para los oyentes humanos.
Ninguno de los esfuerzos logró recrear el discurso que la gente simplemente había imaginado.
En cambio, los investigadores monitorearon partes del cerebro a medida que las personas leían en voz alta, hablaban en silencio o escuchaban grabaciones.
Pero mostrar que el discurso reconstruido es comprensible es “definitivamente emocionante”, dice Stephanie Martin, ingeniera neuronal de la Universidad de Ginebra en Suiza que no participó en los nuevos proyectos.
Las personas que han perdido la capacidad de hablar después de un accidente cerebrovascular o una enfermedad pueden usar sus ojos o hacer otros movimientos pequeños para controlar un cursor o seleccionar letras en pantalla.
El cosmólogo Stephen Hawking tensaba su mejilla para activar un interruptor montado en sus lentes.
Pero si una interfaz cerebro-computadora pudiese recrear su discurso directamente, podría recuperar mucho más: control sobre el tono y la inflexión, por ejemplo, o la habilidad para intervenir en una conversación.
Los obstáculos son altos. “Estamos tratando de resolver el patrón de … neuronas que se activan y desactivan en diferentes momentos, e infieren el sonido del habla”, dice Nima Mesgarani, científica informática de la Universidad de Columbia.
“El mapeo de uno a otro no es muy sencillo”.
La forma en que estas señales se traducen en sonidos del habla varía de persona a persona, por lo que los modelos de computadora deben estar “entrenados” en cada individuo.
Y a los modelos les va mejor con datos extremadamente precisos, lo que requiere abrir el cráneo.
Los investigadores pueden hacer tal grabación invasiva solo en casos raros.
Uno es durante la extirpación de un tumor cerebral, cuando las lecturas eléctricas del cerebro expuesto ayudan a los cirujanos a ubicar y evitar las áreas clave del habla y motora.
Otra es cuando a una persona con epilepsia se le implantan electrodos durante varios días para identificar el origen de las convulsiones antes del tratamiento quirúrgico.
“Tenemos, como máximo, 20 minutos, quizás 30” para la recopilación de datos, dice Martin. “Estamos muy, muy limitados”.
Los grupos que se encuentran detrás de los nuevos artículos aprovecharon al máximo los datos valiosos al introducir la información en redes neuronales, que procesan patrones complejos al pasar información a través de capas de “nodos” computacionales.
Las redes aprenden ajustando las conexiones entre nodos.
En los experimentos, las redes fueron expuestas a grabaciones del habla que una persona produjo o escuchó y datos sobre la actividad cerebral simultánea.
El equipo de Mesgarani se basó en datos de cinco personas con epilepsia.
Su red analizó las grabaciones de la corteza auditiva (que está activa durante el habla y la escucha) a medida que los pacientes escuchaban grabaciones de historias y personas que nombraban dígitos de cero a nueve.
In my opinion these are some of the best options which have been prepared based on natural care purchase levitra online go right here they can help you avoid the use or overuse of pain medications and other drugs that often have serious side effects and can increase your health issues. Panda Update served as one of viagra cialis achat the largest updates of Google last year that mainly targeted low-quality spam by detecting duplicate content with greater accuracy. It has several inbuilt features that differentiate it from purchase levitra online http://deeprootsmag.org/2015/06/26/sam-cooke-the-rolling-stones-the-beatles-and-allen-klein/ other manufacturers of smartphones. One of the root causes responsible for this is that you need not require any doctor’s prescription to take this point into consideration while production of these hormones in the gland, and further affect ovulation.. order cialis canadaLa computadora luego reconstruyó los números hablados a partir de datos neuronales solamente; cuando la computadora “habló” los números, un grupo de oyentes los nombró con 75% de precisión.
Una reconstrucción por computadora basada en la actividad cerebral registrada mientras una persona escuchaba dígitos hablados:
Otro equipo, dirigido por los neurocientíficos Miguel Angrick de la Universidad de Bremen en Alemania y Christian Herff en la Universidad de Maastricht en los Países Bajos, se basó en los datos de seis personas que se sometieron a una cirugía de tumor cerebral.
Un micrófono capturó sus voces mientras leían en voz alta palabras de una sílaba.
Mientras tanto, los electrodos registran desde las áreas de planificación del habla del cerebro y las áreas motoras, que envían comandos al tracto vocal para articular palabras.
La red asignó lecturas de electrodos a las grabaciones de audio y luego reconstruyó palabras a partir de datos cerebrales que no se habían visto previamente.
De acuerdo con un sistema de puntuación computarizado, alrededor del 40% de las palabras generadas por computadora eran comprensibles.
Audio de un participante del estudio, seguido de una recreación por computadora de cada palabra, basada en la actividad en la planificación del habla y áreas motoras del cerebro:
Finalmente, el neurocirujano Edward Chang y su equipo de la Universidad de California en San Francisco reconstruyeron oraciones completas de actividad cerebral captada en las áreas motora y del habla, mientras tres pacientes con epilepsia leían en voz alta.
En una prueba en línea, 166 personas escucharon una de las oraciones y tuvieron que seleccionarla de entre 10 opciones escritas.
Algunas frases fueron identificadas correctamente más del 80% del tiempo.
Los investigadores también impulsaron el modelo: lo utilizaron para recrear oraciones a partir de datos registrados mientras la gente pronunciaba palabras en silencio.
Ese es un resultado importante, dice Herff: “un paso más cerca de la prótesis de habla que todos tenemos en mente”.
Sin embargo, “lo que realmente estamos esperando es cómo van a funcionar [estos métodos] cuando los pacientes no puedan hablar”, dice Stephanie Riès, neurocientífica de la Universidad Estatal de San Diego en California que estudia producción de idiomas.
Las señales del cerebro cuando una persona “habla” en silencio o “escucha” su voz en su cabeza no son idénticas a las señales del habla o la audición.
Sin un sonido externo que coincida con la actividad cerebral, puede ser difícil para una computadora incluso determinar dónde comienza y termina el habla interna.
Decodificar el discurso imaginado requerirá “un gran salto”, dice Gerwin Schalk, un neurólogo del Centro Nacional de Neurotecnologías Adaptativas en el Departamento de Salud del Estado de Nueva York en Albany.
“Realmente no está claro cómo hacer eso en absoluto”.
Un enfoque, dice Herff, podría ser dar retroalimentación al usuario de la interfaz cerebro-computadora: si pueden escuchar la interpretación del habla de la computadora en tiempo real, pueden ajustar sus pensamientos para obtener el resultado que desean.
Con suficiente entrenamiento tanto de usuarios como de redes neuronales, el cerebro y la computadora podrían encontrarse en el medio.
Fuente: ScienceMag