En un laboratorio se trabaja desde hace años en un enfoque de inteligencia artificial inspirado en la arquitectura del cerebro humano.
El resultado es un sistema compuesto por una cantidad enorme de cables colocados sobre un lecho de electrodos.
El sistema recibe la señal de entrada y produce la de salida mediante impulsos eléctricos.
Cada uno de los cables es tan pequeño que su diámetro se mide en nanómetros (milmillonésimas de metro).
El trabajo de investigación y desarrollo se ha realizado mayormente en el Instituto de Nanosistemas de California (CNSI), adscrito a la Universidad de California en Los Ángeles (UCLA), Estados Unidos.
Una parte se ha hecho en la Universidad de Sídney en Australia.
El sistema del CNSI es diferente de los computadores actuales, que contienen módulos separados de memoria y procesamiento hechos de átomos cuyas posiciones no cambian cuando los electrones fluyen a través de ellos.
A diferencia de ellos, el nuevo sistema se reconfigura físicamente en respuesta a estímulos, con una memoria basada en su estructura atómica y repartida por todo el sistema.
Cuando los cables se superponen, pueden formarse o romperse conexiones, de forma análoga al comportamiento de las sinapsis en el cerebro biológico, donde las neuronas se comunican entre sí.
El equipo de investigación y desarrollo, integrado, entre otros, por Sam Lilak de la UCLA y Ruomin Zhu de la Universidad de Sídney, ha completado con éxito un fascinante experimento: este sistema ha aprendido a identificar números manuscritos con una precisión global del 93,4%.
La innovación clave que ha permitido este éxito es un nuevo algoritmo que proporciona al sistema información continua sobre su éxito en la tarea en tiempo real mientras aprende.
El algoritmo está adaptado para aprovechar la capacidad del sistema, similar a la de un cerebro biológico, de cambiar dinámicamente y procesar múltiples flujos de datos simultáneamente.
El algoritmo superó a un método convencional de aprendizaje automático (una modalidad de inteligencia artificial) en el que el entrenamiento se realizaba después de procesar un lote de datos, con una precisión del 91,4%.
Los investigadores también demostraron que los recuerdos sobre señales de entrada anteriores almacenados en el propio sistema mejoraban el aprendizaje.
Aún en fase de desarrollo, se espera que el nuevo sistema requiera mucha menos energía que los sistemas de inteligencia artificial basados en silicio para realizar tareas similares.
El sistema basado en el cerebro humano también se muestra prometedor en tareas con las que las actuales inteligencias artificiales luchan por cumplir: dar sentido a datos complejos, como patrones en el tiempo meteorológico, en el tráfico de vehículos y en otros sistemas que cambian con el tiempo.
Para ello, los sistemas convencionales de inteligencia artificial requieren enormes cantidades de datos de entrenamiento y un gasto energético extremadamente alto.
Fuente: Nature Communications
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)
Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…
El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…
Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…
Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…
Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…