Investigadores de ingeniería de la Universidad de Minnesota Twin Cities han demostrado un dispositivo de hardware de última generación que podría reducir el consumo de energía para aplicaciones informáticas de inteligencia artificial (IA) en un factor de al menos 1000.
Con la creciente demanda de aplicaciones de IA, los investigadores han estado buscando formas de crear un proceso más eficiente energéticamente, manteniendo al mismo tiempo un alto rendimiento y bajos costos.
Comúnmente, los procesos de inteligencia artificial o de máquinas transfieren datos entre la lógica (donde se procesa la información dentro de un sistema) y la memoria (donde se almacenan los datos), consumiendo una gran cantidad de energía.
Un equipo de investigadores de la Facultad de Ciencias e Ingeniería de la Universidad de Minnesota demostró un nuevo modelo en el que los datos nunca salen de la memoria, llamada memoria de acceso aleatorio computacional (CRAM).
“Este trabajo es la primera demostración experimental de CRAM, donde los datos pueden procesarse completamente dentro de la matriz de memoria sin la necesidad de salir de la red donde una computadora almacena información“, dijo Yang Lv, investigador postdoctoral del Departamento de Ingeniería Eléctrica e Informática de la Universidad de Minnesota y primer autor del artículo.
La Agencia Internacional de Energía (AIE) emitió un pronóstico de uso de energía global en marzo de 2024, pronosticando que el consumo de energía para IA probablemente se duplicará de 460 teravatios-hora (TWh) en 2022 a 1.000 TWh en 2026. Esto es aproximadamente equivalente al consumo de electricidad de todo el país de Japón.
Según los autores del nuevo artículo, se estima que un acelerador de inferencia de aprendizaje automático basado en CRAM logrará una mejora del orden de 1.000.
Otro ejemplo mostró un ahorro de energía de 2.500 y 1.700 veces en comparación con los métodos tradicionales.
Esta investigación ha estado en desarrollo durante más de dos décadas.
“Hace 20 años, nuestro concepto inicial de utilizar células de memoria directamente para la computación se consideraba una locura“, dijo Jian-Ping Wang, el autor principal del artículo.
“Con un grupo de estudiantes en constante evolución desde 2003 y un equipo de profesores verdaderamente interdisciplinario creado en la Universidad de Minnesota (desde física, ciencia e ingeniería de materiales, informática e ingeniería, hasta modelado y evaluación comparativa y creación de hardware), pudimos obtener resultados positivos y ahora hemos demostrado que este tipo de tecnología es factible y está lista para ser incorporada a la tecnología“, dijo Wang.
Esta investigación es parte de un esfuerzo coherente y de larga data que se basa en la investigación innovadora y patentada de Wang y sus colaboradores sobre dispositivos de unión de túnel magnético (MTJ), que son dispositivos nanoestructurados que se utilizan para mejorar discos duros, sensores y otros sistemas microelectrónicos, incluida la memoria de acceso aleatorio magnético (MRAM), que se ha utilizado en sistemas integrados como microcontroladores y relojes inteligentes.
La arquitectura CRAM permite la computación real en y por la memoria y derriba el muro entre la computación y la memoria como el cuello de botella en la arquitectura tradicional de von Neumann, un diseño teórico para una computadora con programa almacenado que sirve como base para casi todas las computadoras modernas.
“Como sustrato de computación en memoria basado en digital extremadamente eficiente en términos de energía, CRAM es muy flexible en el sentido de que la computación se puede realizar en cualquier ubicación en la matriz de memoria.
En consecuencia, podemos reconfigurar CRAM para que se adapte mejor a las necesidades de rendimiento de un conjunto diverso de algoritmos de IA“, dijo Ulya Karpuzcu, un experto en arquitectura informática, coautor del artículo y profesor asociado en el Departamento de Ingeniería Eléctrica e Informática de la Universidad de Minnesota.
“Es más eficiente energéticamente que los bloques de construcción tradicionales para los sistemas de IA actuales”.
CRAM realiza cálculos directamente dentro de las celdas de memoria, utilizando la estructura de la matriz de manera eficiente, lo que elimina la necesidad de transferencias de datos lentas y que consumen mucha energía, explicó Karpuzcu.
El dispositivo de memoria de acceso aleatorio a corto plazo (RAM) más eficiente utiliza cuatro o cinco transistores para codificar un uno o un cero, pero un MTJ, un dispositivo espintrónico, puede realizar la misma función con una fracción de la energía, con mayor velocidad y es resistente a entornos hostiles.
Los dispositivos espintrónicos aprovechan el giro de los electrones en lugar de la carga eléctrica para almacenar datos, lo que proporciona una alternativa más eficiente a los chips tradicionales basados en transistores.
Actualmente, el equipo ha estado planeando trabajar con líderes de la industria de semiconductores, incluidos los de Minnesota, para proporcionar demostraciones a gran escala y producir el hardware para avanzar en la funcionalidad de la IA.
Fuente: TechXplore