Los chips neuromórficos podrían reducir las demandas de energía de los asistentes digitales y otros dispositivos en órdenes de magnitud.
La inteligencia artificial (IA) hace que los videojuegos sean más realistas y ayuda a que su teléfono reconozca su voz, pero los programas consumen mucha energía.
Sin embargo, la próxima generación de IA puede ser 1000 veces más eficiente energéticamente, gracias a los chips de computadora que funcionan como el cerebro humano.
Un nuevo estudio muestra que estos chips neuromórficos pueden ejecutar algoritmos de IA usando solo una fracción de la energía que consumen los chips comunes.
“Este es un trabajo impresionante”, dice Steve Furber, científico informático de la Universidad de Manchester.
Dichos avances, dice, podrían conducir a grandes saltos en el rendimiento de un software complejo que, por ejemplo, traduce idiomas o pilotea automóviles sin conductor.
Un programa de IA generalmente sobresale en la búsqueda de ciertos patrones deseados en un conjunto de datos, y una de las cosas más complicadas que hace es mantener las partes del patrón en orden mientras une todo el conjunto.
Considere cómo una computadora podría reconocer una imagen.
Primero, detecta los bordes bien definidos de esa imagen.
Luego, debe recordar estos bordes, y todas las partes subsiguientes de la imagen, a medida que forma la imagen final.
Un componente común de tales redes es una unidad de software llamada memoria a corto plazo (LSTM), que mantiene la memoria de un elemento a medida que las cosas cambian con el tiempo.
Un borde vertical en una imagen, por ejemplo, debe retenerse en la memoria ya que el software determina si representa una parte del número “4” o la puerta de un automóvil.
Los sistemas típicos de IA deben realizar un seguimiento de cientos de elementos LSTM a la vez.
Las redes actuales de LSTM que funcionan con chips de computadora convencionales son muy precisas.
Pero los chips tienen hambre de poder.
Para procesar bits de información, primero deben recuperar bits individuales de datos almacenados, manipularlos y luego devolverlos al almacenamiento.
Y luego repite esa secuencia una y otra y otra vez.
Intel, IBM y otros fabricantes de chips han estado experimentando con un diseño de chip alternativo, llamado chips neuromórficos.
Estos procesan la información como una red de neuronas en el cerebro, en la que cada neurona recibe entradas de otras en la red y se activa si la entrada total supera un umbral.
Los nuevos chips están diseñados para tener el equivalente en hardware de las neuronas conectadas entre sí en una red.
Los programas de IA también se basan en redes de neuronas falsas, pero en las computadoras convencionales, estas neuronas se definen completamente en el software y, por lo tanto, residen, virtualmente, en los chips de memoria separados de la computadora.
La configuración en un chip neuromórfico maneja la memoria y la computación juntas, haciéndolo mucho más eficiente energéticamente: nuestros cerebros solo requieren 20 vatios de potencia, casi lo mismo que una bombilla de bajo consumo.
Pero para hacer uso de esta arquitectura, los informáticos deben reinventar la forma en que llevan a cabo funciones como LSTM.
Esa fue la tarea que asumió Wolfgang Maass, científico informático de la Universidad Tecnológica de Graz.
Él y sus colegas buscaron replicar un mecanismo de almacenamiento de memoria en nuestros cerebros que realizan las redes neuronales biológicas llamadas corrientes post-hiperpolarizantes (AHP).
Después de que se dispara una neurona en el cerebro, por lo general regresa a su nivel de referencia y permanece inactiva hasta que una vez más recibe suficiente información para exceder su umbral.
Pero en las redes AHP, después de disparar una vez, una neurona se inhibe temporalmente para que no vuelva a disparar, un período muerto que en realidad ayuda a la red de neuronas a retener información mientras gasta menos energía.
Maass y sus colegas integraron un patrón de activación de neuronas AHP en su software de red neuronal neuromórfica y ejecutaron su red a través de dos pruebas estándar de IA.
El primer desafío fue reconocer un “3” escrito a mano en una imagen dividida en cientos de pixeles individuales.
Aquí, descubrieron que cuando se ejecutaba en uno de los chips Loihi neuromórficos de Intel, su algoritmo era hasta 1000 veces más eficiente energéticamente que los algoritmos de reconocimiento de imágenes basados en LSTM que se ejecutan en chips convencionales.
Para su segunda prueba, en la que la computadora necesitaba responder preguntas sobre el significado de historias de hasta 20 oraciones, la configuración neuromórfica fue hasta 16 veces más eficiente que los algoritmos que se ejecutan en procesadores de computadora convencionales.
Maass señala que esta segunda prueba se realizó en una serie de 22 chips Loihi de primera generación de Intel, que consumen cantidades relativamente grandes de energía al comunicarse entre sí.
Desde entonces, la compañía ha lanzado un chip Loihi de segunda generación, cada uno con más neuronas, lo que, según él, debería reducir la necesidad de comunicación de chip a chip y, por lo tanto, hacer que el software funcione de manera más eficiente.
Por ahora, pocos chips neuromórficos están disponibles comercialmente.
Por lo tanto, es probable que las aplicaciones a gran escala no surjan rápidamente.
Pero los algoritmos avanzados de IA, como los que ha demostrado Maass, podrían ayudar a que estos chips obtengan un punto de apoyo comercial, dice Anton Arkhipov, neurocientífico computacional del Instituto Allen.
“Como mínimo, eso ayudaría a acelerar los sistemas de IA”.
Eso, a su vez, podría conducir a aplicaciones novedosas, como asistentes digitales de IA que no solo podrían indicarle a alguien el nombre de una persona en una foto, sino también recordarles dónde se conocieron y relatar historias de su pasado juntos.
Al incorporar otros patrones de activación neuronal en el cerebro, Mass dice que las configuraciones neuromórficas futuras pueden incluso comenzar a explorar algún día cómo la multitud de patrones de activación neuronal trabajan juntos para producir conciencia.
Fuente: Science