¿Será capaz algún computador del futuro de leer la mente? No hace falta irse tan lejos. Ya existen algoritmos capaces de mostrar la imagen en la que estamos pensando, gracias a la fMRI.
Imagine sentarse en una cómoda silla, ponerse una banda de electrodos en la cabeza y mostrarle en la pantalla a sus amigos los recuerdos de su último viaje.
Sin fotos, sin vídeos. Directamente los recuerdos.
Esta idea, tan sencilla, es el comienzo de un sinfín de posibilidades.
El poder leer la mente y transmitirlo en imágenes es un concepto con el que se lleva jugando en la industria de la ciencia ficción desde hace años.
Pero cada día estamos más cerca de convertirlo en realidad.
Los últimos hallazgos de supercomputación, análisis computacional y neuroimagen están dando mucho de qué hablar.
Aunque parezca algo increíble, los estudios realizados en materia de “leer la mente” llevan años en desarrollo. Por supuesto, esto no es nada sencillo.
En primer lugar, porque no terminamos de entender nuestro propio cerebro. En segundo, porque no podemos manipularlo a la ligera, ya que es delicado y peligroso.
Aquí es donde entran las técnicas de neuroimagen más modernas.
Entre las más prometedoras se encuentra la resonancia magnética funcional, o fMRI.
Esta consiste, básicamente, en medir el flujo sanguíneo que es, de un modo que no terminamos de entender (aunque todo el mundo se atreve a sentenciar), una manera de ver dónde tiene más actividad el cerebro.
Eso, de algún modo, está conectado a lo que pensamos, por ejemplo.
Así, los investigadores que llevan trabajando en este campo tratan de relacionar estos flujos con el pensamiento que estamos teniendo. En concreto, con las imágenes.
Hasta la fecha, se han conseguido resultados impresionantes.
Además, recientemente hemos podido comprobar una mejora increíble de estos resultados gracias al trabajo para hacer más eficiente el algoritmo que reconstruye las imágenes.
Este es un punto crucial porque el sistema no consiste propiamente en leer la imagen cerebral.
Como hemos explicado, el computador interpreta “la actividad” cerebral y la traduce a imágenes. ¿Qué imágenes?
Puesto que no pueden sacarse directamente del cerebro, el algoritmo se encarga de hacer una composición a partir de miles de otras imágenes digitales.
Así, trata de reconstruir una imagen a partir de lo que interpreta que será la imagen original.
Como podemos suponer, es un sistema un tanto complejo pero que está dando grandes resultados.
El equipo entrena a su red para recrear las imágenes alimentándolo con las escenas visuales de la corteza de alguien mirando una imagen y pidiendo a la red recrear la imagen original basada en esos datos.
Consumption of alcohol actually increases the sex fantasy but kills the actual functionality while this act. viagra sales uk Let us learn how stress can cause sex drive to fall, which literally try content cialis lowest prices kills erectile function. He was doing the research in the treatment of colorectal cancer, surgery remains the viagra france pharmacy robertrobb.com only treatment for a better cure. The generic anti-impotency medicine is taken an hour india viagra for sale before sexual activity.
Después de suficiente práctica, el sistema sabe cómo correlacionar voxels (pixeles 3D) escaneados para que pueda generar imágenes precisas y sin ruido sin tener que ver el original.
La nueva técnica, DGMM (Deep Generative Multiview Model), está casi a la par con el material de origen.
Prácticamente todos los otros enfoques son tan imprecisos y ruidosos que muchos de sus resultados son difíciles de leer o simplemente erróneos.
Hasta el momento, el algoritmo es capaz de reconstruir con gran nitidez la imagen de letras presentadas a los sujetos de la investigación.
Las mayores dificultades, afirman los investigadores, están precisamente en el sistema de detección y análisis.
Los fMRI son ruidosos y complejos.
Además, los “voxel”, el conjunto de datos tridimensional que comprende la información, se afectan unos a otros en tiempo real, lo que dificulta aún más el proceso de entender la información.
De ahí que uno de los mayores esfuerzos se dedique a los algoritmos computacionales.
El siguiente paso, explican, será optimizarlos para imágenes en movimiento así como escenas más complejas y con más detalle.
Efectivamente, todavía es un poco pronto para imaginar escenas más propias de películas como Johnny Mnemonic. Pero los resultados ya resultan impresionantes.
Pero además de este sistema, diversos investigadores están trabajando en desentrañar más aspectos del cerebro.
Por ejemplo, detectar la actividad neuronal con respecto a las emociones.
También están tratando de encontrar la relación existente entre las estructuras cerebrales y el lenguaje.
En otras palabras, cómo se distribuye nuestro conocimiento (verbal) en nuestro cerebro.
Al final, todas estas herramientas pueden converger en un mismo sistema que permita reconstruir con eficiencia y claridad lo que pasa por nuestra cabeza.
El primer paso, desde luego, son las imágenes. Porque las imágenes son algo visual y relativamente sencillo de interpretar.
Pero la investigación podría ir mucho más allá, ampliando las fronteras de lo que se puede analizar y la manera de hacerlo.
Si ya podemos ver imágenes de lo que pensamos, ¿quién sabe si no podremos sentir, oler o saborear en un futuro lo que otros han vivido?
Más allá de lo superfluo de esta cuestión hay otra mucho más importante: poder leer la mente nos ayudará, sin duda, a mejorar la calidad de vida de millones de pacientes cuyas posibilidades de interactuar con el mundo están limitadas.
Y puede que no quede tanto para que podamos ver ese día llegar.
Fuentes: Hipertextual, Engadget