Los sistemas de inteligencia artificial están cada vez más limitados por el hardware utilizado para implementarlos.
Ahora viene un nuevo circuito fotónico superconductor que imita los enlaces entre las células cerebrales, quemando solo el 0,3 por ciento de la energía de sus contrapartes humanas mientras opera unas 30,000 veces más rápido.
En las redes neuronales artificiales, los componentes llamados neuronas reciben datos y cooperan para resolver un problema, como el reconocimiento de rostros.
La red neuronal ajusta repetidamente las sinapsis, los enlaces entre sus neuronas, y determina si los patrones de comportamiento resultantes son mejores para encontrar una solución.
Con el tiempo, la red descubre qué patrones son mejores para calcular los resultados.
Luego adopta estos patrones como predeterminados, imitando el proceso de aprendizaje en el cerebro humano.
Aunque los sistemas de IA están encontrando cada vez más aplicaciones del mundo real, enfrentan una serie de desafíos importantes, dado el hardware utilizado para ejecutarlos.
Una solución que los investigadores han investigado para resolver este problema es desarrollar hardware informático “neuromórfico” inspirado en el cerebro.
Por ejemplo, los componentes de microchips neuromórficos pueden “disparar” o generar una señal de salida, solo después de recibir una cierta cantidad de señales de entrada durante un tiempo determinado, una estrategia que imita más de cerca cómo se comportan las neuronas biológicas reales.
Al disparar picos rara vez, estos dispositivos mezclan muchos menos datos que las redes neuronales artificiales típicas y, en principio, requieren mucha menos energía y ancho de banda de comunicación.
Sin embargo, el hardware neuromórfico suele utilizar electrónica convencional, lo que acaba limitando su complejidad y velocidad.
Por ejemplo, cada una de las neuronas biológicas puede poseer decenas de miles de sinapsis, pero los dispositivos neuromórficos luchan por conectar sus neuronas artificiales con algunas otras.
Una solución es la multiplexación, en la que un solo canal de datos puede transportar muchas señales al mismo tiempo.
Sin embargo, a medida que los chips se vuelven más grandes y complejos, los cálculos pueden ralentizarse.
En un nuevo estudio, los investigadores exploraron el uso de transmisores y receptores ópticos para conectar las neuronas.
Los enlaces ópticos, o guías de ondas, pueden, en principio, conectar cada neurona con miles de otras a velocidades de comunicación a la velocidad de la luz.
Los científicos utilizaron dispositivos de nanocables superconductores capaces de detectar fotones individuales.
Estas señales ópticas son las más pequeñas posibles, constituyendo el límite físico de la eficiencia energética.
Realizar cálculos neuronales fotónicos a menudo es complicado porque generalmente se necesitan cavidades ópticas que pueden atrapar la luz durante largos períodos de tiempo.
Crear tales cavidades y vincularlas con muchas guías de ondas es un gran desafío de lograr en un microchip integrado.
En cambio, los investigadores desarrollaron circuitos híbridos, en los que las señales de salida de cada detector se convirtieron en pulsos eléctricos ultrarrápidos de aproximadamente 2 picosegundos de duración.
Cada uno de estos pulsos consistía en una única fluctuación magnética, o fluxón, dentro de una red de dispositivos superconductores de interferencia cuántica, o SQUID.
“Hemos estado haciendo trabajo teórico durante años para tratar de identificar los principios que permitirán que la tecnología pueda alcanzar los límites físicos de la computación neuromórfica”, dice Jeffrey Shainline, investigador del NIST.
“La búsqueda de ese objetivo nos ha llevado a este concepto: combinar la comunicación óptica en el nivel de un solo fotón con el cálculo neuronal realizado por las uniones de Josephson”.
Los SQUID consisten en una o más uniones Josephson, un sándwich de materiales superconductores separados por una delgada película aislante.
Si la corriente a través de la unión Josephson excede un cierto valor de umbral, el SQUID comienza a producir fluxones.
Al detectar un fotón, el detector de fotón único produce fluxones, que se acumulan como corriente en el bucle superconductor del SQUID.
Esta corriente almacenada sirve como una forma de memoria, proporcionando un registro de cuántas veces una neurona produjo un pico.
“Fue sorprendente que fuera bastante fácil hacer que los circuitos funcionaran”, dice Shainline.
“La fabricación y los experimentos tomaron bastante tiempo en la fase de diseño, pero los circuitos realmente funcionaron la primera vez que los fabricamos.
Eso es un buen augurio para la escalabilidad futura de dichos sistemas”.
Los científicos integraron el detector de fotones individuales con la unión de Josephson, creando una sinapsis superconductora.
Calcularon que las sinapsis son capaces de alcanzar tasas de picos superiores a los 10 millones de hercios mientras consumen aproximadamente 33 atjoules de potencia por evento sináptico (un attojoule es 10-18 de un joule).
Por el contrario, las neuronas humanas tienen una tasa de pico promedio máxima de alrededor de 340 hercios y consumen aproximadamente 10 femtojulios por evento sináptico (un femtojulio es 10-15 de un julio).
“Cuando miro a mi alrededor todos los conceptos que se han desenterrado, realmente siento que estamos en algo”, dice Shainline.
“Podría ser profundamente transformador”.
Además, los científicos pueden variar la salida de sus dispositivos desde cientos de nanosegundos hasta milisegundos.
Esto significa que el hardware puede interactuar con una variedad de sistemas, desde dispositivos electrónicos de alta velocidad hasta interacciones más relajadas con humanos.
En el futuro, los investigadores combinarán sus nuevas sinapsis con fuentes de luz en el chip para crear neuronas superconductoras totalmente integradas.
“Ahí quedan grandes desafíos, pero si podemos integrar esa última parte, hay muchas razones para pensar que el resultado podría ser una plataforma computacional de inmenso poder para la inteligencia artificial”, dice Shainline.
Fuente: IEEE Spectrum
Los modelos de IA generativa como ChatGPT se entrenan con grandes cantidades de datos obtenidos…
El kit para desarrolladores NVIDIA Jetson Orin Nano Super está diseñado tanto para aficionados como…
Google ha presentado Veo 2, una IA que supera a Sora al generar videos realistas…
La nueva IA de Google es capaz de generar diseños de cualquier tipo sin necesidad…
Han pasado casi cinco meses desde el lanzamiento de SearchGPT. La prometedora función de búsqueda…
En los últimos años, los ingenieros han intentado crear sistemas de hardware que soporten mejor…