Un nuevo chip neuromórfico, llamado NeuRRAM, es el primero de su tipo en demostrar una amplia gama de aplicaciones de inteligencia artificial mientras gasta solo una fracción de la energía consumida por otros sistemas de inteligencia artificial y sin que su precisión sea inferior a la de esos.
La computación actual mediante inteligencia artificial suele necesitar una enorme potencia de cálculo y un alto consumo de electricidad, lo que hace casi imposible su uso en dispositivos móviles que dependen de baterías.
NeuRRAM ha sido diseñado y fabricado por el equipo internacional de Weier Wan, quien antes estaba en la Universidad de California en San Diego, y ahora está en la Universidad de Stanford, ambas instituciones en Estados Unidos.
NeuRRAM ejecuta los cálculos directamente en la memoria y acerca la inteligencia artificial a su inclusión en una amplia gama de dispositivos, sin necesidad de que estén conectados a la nube ni a internet.
Esto último les permite realizar sofisticadas tareas cognitivas en cualquier momento y lugar sin depender de una conexión a un servidor centralizado, como sí dependen los dispositivos portátiles que utilizan inteligencia artificial.
De hecho, estos no la poseen sino que se limitan a pedir ayuda a sistemas remotos que sí la poseen
Las aplicaciones prácticas potenciales de NeuRRAM discurren por todas las facetas de la vida cotidiana de mucha gente, abarcando dispositivos de muy variado tipo, como por ejemplo teléfonos inteligentes, relojes inteligentes, auriculares inteligentes, cascos de realidad virtual, sensores para fábricas y rovers robóticos para explorar la superficie de otros mundos.
El chip NeuRRAM no solo es el doble de eficiente energéticamente que los chips de “computación en memoria” de última generación, una clase innovadora de chips híbridos que ejecutan los cálculos en la memoria, sino que también ofrece resultados tan precisos como los producidos por los chips digitales convencionales.
Las plataformas de inteligencia artificial convencionales son mucho más voluminosas y suelen requerir el uso de grandes servidores de datos que operan en la nube.
Además, el chip NeuRRAM es muy versátil y admite muchos modelos y arquitecturas de redes neuronales diferentes.
Como resultado, el chip puede utilizarse para muchas aplicaciones diferentes, incluyendo la identificación y la reconstrucción de imágenes, así como el reconocimiento de voz.
NeuRRAM emplea lo que se conoce como memoria de acceso aleatorio resistiva (RRAM).
Su funcionamiento se parece un poco al de la memoria flash basada en transistores, pero usando un enfoque diferente.
Mientras que la memoria flash tradicional se basa en la carga eléctrica para almacenar información, la RRAM logra esto usando la resistencia eléctrica.
Al igual que la memoria flash convencional, puede conservar sin necesidad de un suministro eléctrico la información ya almacenada.
Una cualidad muy importante de la memoria RRAM es su capacidad de calcular directamente en la memoria en vez de hacerlo en unidades de cálculo separadas.
La RRAM y otras tecnologías de memoria emergentes usadas como redes de sinapsis artificiales para la computación neuromórfica tuvieron parte de su origen en el laboratorio de Philip Wong, de la Universidad de Stanford, quien ha colaborado en la línea de investigación y desarrollo que ha culminado con la creación de NeuRRAM.
Fuente: Nature
Apple ha presentado la nueva generación de sus portátiles para profesionales que llevan en su…
El nuevo Apple iMac (2023) se renueva a lo grande con el chip M3: el…
Investigadores han construido una cámara superconductora de 400.000 pixeles, que es tan sensible que puede…
Los guantes hápticos Fluid Reality se pueden usar para tocar cosas en realidad virtual. (more…)
El robot CUREE impulsado por NVIDIA Jetson, desarrollado por investigadores del Laboratorio Autónomo de Percepción…
Investigadores de la Universidad Tecnológica de Sydney (Australia) han desarrollado una tecnología táctil acústica que…