En un esfuerzo pionero, investigadores de UC San Francisco y UC Berkeley, en asociación con Speech Graphics, con sede en Edimburgo, han ideado un sistema de comunicación innovador que permite a una mujer, paralizada por un derrame cerebral, hablar libremente a través de un avatar digital que controla con una interfaz cerebro-computador.
Las interfaces cerebro-computadora (BCI) son dispositivos que monitorean las señales analógicas producidas por la materia gris y las convierten en señales digitales que las computadoras entienden.
Para este estudio, los investigadores dirigidos por el Dr. Edward Chang, presidente de cirugía neurológica de la UCSF, primero implantaron una serie de electrodos de 253 pines en el centro del habla del cerebro de la paciente.
Esas sondas monitorearon y capturaron las señales eléctricas que de otro modo habrían impulsado los músculos de su mandíbula, labios y lengua y, en cambio, las transmitieron a través de un puerto cableado en su cráneo a un banco de procesadores.
Esa pila informática albergaba una IA de aprendizaje automático que, en el transcurso de unas pocas semanas de entrenamiento, llegó a reconocer los patrones de señales eléctricas del paciente durante más de 1.000 palabras.
Pero esa es sólo la primera mitad del truco.
A través de esa interfaz de IA, el paciente ahora puede escribir sus respuestas, de manera muy similar a como funciona el sistema de Synchron para las personas que sufren el síndrome de enclaustramiento.
Pero también puede hablar, en cierto sentido, usando una voz sintetizada entrenada en grabaciones de su voz natural antes de quedar paralizada, lo mismo que estamos haciendo con nuestras celebridades no muertas digitalmente.
Es más, los investigadores se asociaron con Speech Graphics, la misma empresa que desarrolló la tecnología de animación facial fotorrealista de Halo Infinite y The Last of Us Part II, para crear el avatar del paciente.
La tecnología de SG realiza “ingeniería inversa” de los movimientos musculoesqueléticos necesarios que haría una cara basándose en el análisis de la entrada de audio, luego envía esos datos en tiempo real a un motor de juego para animarlos en un avatar sin demoras.
Y dado que las señales mentales de la paciente se asignaban directamente al avatar, ella podía expresar emociones y comunicarse también de forma no verbal.
“La creación de un avatar digital que pueda hablar, expresar emociones y articular en tiempo real, conectado directamente al cerebro del sujeto, muestra el potencial de los rostros impulsados por IA mucho más allá de los videojuegos“, dijo Michael Berger, CTO y cofundador de Speech Graphics.
“Restaurar la voz por sí solo es impresionante, pero la comunicación facial es muy intrínseca al ser humano y devuelve una sensación de encarnación y control al paciente que la ha perdido”.
La tecnología BCI fue pionera a principios de la década de 1970 y se ha ido desarrollando lentamente en las décadas posteriores.
Los avances exponenciales en los sistemas informáticos y de procesamiento han ayudado recientemente a revitalizar este campo, con un puñado de nuevas empresas bien financiadas que actualmente compiten por ser las primeras en el proceso regulatorio de aprobación de dispositivos de la FDA.
Synchron, con sede en Brooklyn, fue noticia el año pasado cuando fue la primera empresa en implantar con éxito un BCI en un paciente humano.
Fuente: Science