Categorías: Tecnología

Crean inteligencia artificial que “mira” vídeos imitando al cerebro

Comparta este Artículo en:

Imagínese un modelo de inteligencia artificial (IA) que pueda ver y comprender imágenes en movimiento con la sutileza de un cerebro humano.

Ahora, científicos de Scripps Research han hecho realidad esto creando MovieNet: una IA innovadora que procesa videos de forma muy similar a cómo nuestro cerebro interpreta las escenas de la vida real a medida que se desarrollan en el tiempo.

Este modelo de IA inspirado en el cerebro puede percibir escenas en movimiento simulando cómo las neuronas (o células cerebrales) dan sentido al mundo en tiempo real.

La IA convencional se destaca en el reconocimiento de imágenes fijas, pero MovieNet presenta un método para que los modelos de aprendizaje automático reconozcan escenas complejas y cambiantes, un avance que podría transformar campos desde el diagnóstico médico hasta la conducción autónoma, donde es crucial discernir cambios sutiles a lo largo del tiempo.

MovieNet también es más precisa y ambientalmente sostenible que la IA convencional.

El cerebro no solo ve imágenes fijas, sino que crea una narrativa visual continua“, afirma el autor principal Hollis Cline, Ph.D., director del Centro de Neurociencia Dorris y profesor Hahn de Neurociencia en Scripps Research.

El reconocimiento de imágenes estáticas ha avanzado mucho, pero la capacidad del cerebro para procesar escenas fluidas (como ver una película) requiere una forma mucho más sofisticada de reconocimiento de patrones.

Al estudiar cómo las neuronas capturan estas secuencias, hemos podido aplicar principios similares a la IA”.

Para crear MovieNet, Cline y el primer autor Masaki Hiramoto, científico del personal de Scripps Research, examinaron cómo el cerebro procesa escenas del mundo real como secuencias cortas, similares a clips de películas.

En concreto, los investigadores estudiaron cómo las neuronas de los renacuajos respondían a los estímulos visuales.

“Los renacuajos tienen un sistema visual muy bueno, además sabemos que pueden detectar y responder a estímulos en movimiento de manera eficiente”, explica Hiramoto.

Él y Cline identificaron neuronas que responden a características cinematográficas (como cambios de brillo y rotación de la imagen) y pueden reconocer objetos a medida que se mueven y cambian.

Ubicadas en la región de procesamiento visual del cerebro conocida como techo óptico, estas neuronas ensamblan partes de una imagen en movimiento en una secuencia coherente.

Piense en este proceso como algo similar a un rompecabezas lenticular: cada pieza por sí sola puede no tener sentido, pero juntas forman una imagen completa en movimiento.

Diferentes neuronas procesan varias “piezas del rompecabezas” de una imagen en movimiento de la vida real, que luego el cerebro integra en una escena continua.

Los investigadores también descubrieron que las neuronas del techo óptico de los renacuajos distinguían cambios sutiles en los estímulos visuales a lo largo del tiempo, capturando información en clips dinámicos de aproximadamente 100 a 600 milisegundos en lugar de fotogramas estáticos.

Estas neuronas son muy sensibles a los patrones de luz y sombra, y la respuesta de cada neurona a una parte específica del campo visual ayuda a construir un mapa detallado de una escena para formar un “clip de película”.

Cline y Hiramoto entrenaron a MovieNet para emular este procesamiento similar al del cerebro y codificar videoclips como una serie de pequeñas señales visuales reconocibles.

Esto permitió al modelo de IA distinguir diferencias sutiles entre escenas dinámicas.

Para probar MovieNet, los investigadores le mostraron videoclips de renacuajos nadando en diferentes condiciones.

MovieNet no solo logró una precisión del 82,3 % al distinguir comportamientos de natación normales de anormales, sino que superó las capacidades de los observadores humanos entrenados en un 18 %. Incluso superó a los modelos de IA existentes, como GoogLeNet de Google, que logró solo un 72 % de precisión a pesar de sus amplios recursos de entrenamiento y procesamiento.

Aquí es donde vimos un potencial real”, señala Cline.

El equipo determinó que MovieNet no solo era mejor que los modelos de IA actuales para comprender escenas cambiantes, sino que también usaba menos datos y tiempo de procesamiento.

La capacidad de MovieNet para simplificar los datos sin sacrificar la precisión también lo distingue de la IA convencional.

Al descomponer la información visual en secuencias esenciales, MovieNet comprime eficazmente los datos como un archivo comprimido que conserva detalles críticos.

Además de su alta precisión, MovieNet es un modelo de IA ecológico.

El procesamiento de IA convencional requiere una enorme cantidad de energía, lo que deja una gran huella ambiental.

Los requisitos de datos reducidos de MovieNet ofrecen una alternativa más ecológica que conserva la energía y al mismo tiempo funciona a un alto nivel.

Al imitar el cerebro, hemos logrado que nuestra IA sea mucho menos exigente, allanando el camino para modelos que no solo son potentes sino también sostenibles“, dice Cline.

“Esta eficiencia también abre la puerta a la ampliación de la IA en campos donde los métodos convencionales son costosos”.

Además, MovieNet tiene el potencial de transformar la medicina.

A medida que la tecnología avance, podría convertirse en una herramienta valiosa para identificar cambios sutiles en enfermedades en etapa temprana, como detectar ritmos cardíacos irregulares o detectar los primeros signos de enfermedades neurodegenerativas como el Parkinson.

Por ejemplo, la IA podría detectar en una etapa temprana pequeños cambios motores relacionados con el Parkinson que a menudo son difíciles de discernir para el ojo humano, lo que brindaría a los médicos un tiempo valioso para intervenir.

Además, la capacidad de MovieNet para percibir cambios en los patrones de natación de los renacuajos cuando se los expuso a sustancias químicas podría conducir a técnicas de detección de drogas más precisas, ya que los científicos podrían estudiar las respuestas celulares dinámicas en lugar de depender de instantáneas estáticas.

“Los métodos actuales pasan por alto cambios críticos porque solo pueden analizar imágenes capturadas a intervalos“, señala Hiramoto.

“Observar las células a lo largo del tiempo significa que MovieNet puede rastrear los cambios más sutiles durante las pruebas de drogas”.

De cara al futuro, Cline y Hiramoto planean continuar refinando la capacidad de MovieNet para adaptarse a diferentes entornos, mejorando su versatilidad y sus posibles aplicaciones.

“La inspiración en la biología seguirá siendo un campo fértil para el avance de la IA“, afirma Cline.

“Al diseñar modelos que piensen como organismos vivos, podemos lograr niveles de eficiencia que simplemente no son posibles con los enfoques convencionales”.

Fuente: PNAS

 

Editor PDM

Entradas recientes

Desarrollan dispositivo que fusiona funciones de detección y computación

En los últimos años, los ingenieros han intentado crear sistemas de hardware que soporten mejor…

23 hours hace

Construyen una pequeña “mano” de ADN que atrapa virus para detener infecciones

Se ha demostrado que el NanoGripper, hecho a partir de una sola pieza de ADN…

23 hours hace

Superficies controladas magnéticamente mueven objetos sin agarrarlos

Investigadores han desarrollado un novedoso dispositivo que combina campos magnéticos y los principios de diseño…

23 hours hace

Inteligencia artificial podría ayudar a reducir el riesgo de lesiones en pianistas

Investigadores de Stanford Engineering han desarrollado un modelo entrenado con IA para recrear con precisión…

23 hours hace

Sistema de globos puede producir electricidad solar localizada para el suelo

Un equipo de ingenieros y científicos ambientales de la Universidad de Mälardalen, en Suecia, la…

23 hours hace

Bioimpresión 3D alcanza una velocidad diez veces mayor para tejidos funcionales

Investigadores de Penn State han desarrollado una revolucionaria técnica de bioimpresión 3D denominada Sistema de…

2 days hace
Click to listen highlighted text!