Una nueva modalidad de la inteligencia artificial llamada aprendizaje automático profundo analógico promete una velocidad de cálculo muchísimo mayor que con otras modalidades y además con una fracción del uso de energía que consumen esas.
Las resistencias programables son las piezas clave de esta modalidad de la inteligencia artificial, al igual que los transistores son las piezas principales de los procesadores digitales convencionales.
Repitiendo conjuntos de resistencias programables en capas complejas, es posible crear una red de “neuronas” y “sinapsis” artificiales analógicas que ejecutan cálculos como una red neuronal digital.
Esta red puede entrenarse para realizar tareas complejas, como el reconocimiento de imágenes y el procesamiento del lenguaje humano.
Trabajando en este campo, un equipo que incluye a Jesús A. del Alamo, Ju Li y Bilge Yildiz, del Instituto Tecnológico de Massachusetts (MIT) en Estados Unidos, ha mejorado una sinapsis analógica que el equipo había desarrollado previamente.
Del Alamo y sus colegas utilizaron un material inorgánico en el proceso de fabricación que permite a los dispositivos funcionar un millón de veces más rápido que las versiones anteriores, lo que también es aproximadamente un millón de veces más rápido que las sinapsis del cerebro humano.
Además, este material inorgánico también hace que las resistencias programables sean extremadamente eficientes desde el punto de vista energético.
A diferencia de los materiales utilizados en la versión anterior del dispositivo, el nuevo material es compatible con las técnicas de fabricación empleadas con el silicio.
Este cambio ha permitido fabricar dispositivos a escala nanométrica y podría allanar el camino para la integración de hardware de esta clase en una amplia gama de computadores, dotándolos de la capacidad de aprendizaje automático profundo.
El funcionamiento del dispositivo se basa en la inserción electroquímica del ion más pequeño, el protón, en un óxido aislante, para modular su conducta.
Las resistencias programables protónicas aumentan enormemente la velocidad a la que se entrena una red neuronal, al tiempo que reducen drásticamente el consumo de energía para realizar ese entrenamiento.
Esto podría ayudar a los científicos a desarrollar mucho más rápidamente modelos de aprendizaje profundo, que podrían aplicarse en usos como los carros autoconducidos, la detección de falsificaciones o el análisis de imágenes médicas.
Fuente: Highways Today