Categorías: Tecnología

El MIT presenta nuevo chip de cifrado de baja potencia y un nuevo chip de inteligencia artificial más eficiente

Comparta este Artículo en:

El chip de encriptación de baja potencia del MIT podría hacer que los dispositivos de IoT (Internet of Things) sean más seguros.

También funciona muy rápido y usa mucha menos memoria que las soluciones de software comparables.

El Internet de las Cosas nunca ha sido muy seguro.

Los dispositivos inteligentes pirateados han sido culpados por apagones en la web, Internet interrumpido, intentos de spam y phishing y, por supuesto, el próximo apocalipsis de las cosas inteligentes.

Sin embargo, una de las razones por las que no hemos visto el mismo tipo de cifrado que ofrece la web es que dicha protección consume mucha energía.

MIT está trabajando en un nuevo chip, para realizar este tipo de encriptación de clave pública que solo usa 1/400 de potencia de lo que consumiría una solución de software.

Además, el chip usa aproximadamente 1/10 de memoria y ejecuta procesos 500 veces más rápido.

Los investigadores del MIT utilizaron una técnica llamada encriptación de curva elíptica, que se basa en una función matemática para asegurar las transacciones.

El nuevo chip se distingue por ser capaz de manejar cualquier tipo de curva elíptica, que, además de su bajo consumo de energía y una alta velocidad de computación, lo hace mucho más útil como solución de encriptación.

“Los criptógrafos están elaborando curvas con diferentes propiedades, y usan diferentes números primos”, dijo el autor principal Utsav Banerjee en un comunicado.

“Hay mucho debate sobre qué curva es segura y qué curva usar, y hay varios gobiernos con diferentes estándares que hablan de diferentes curvas.

Con este chip, podemos apoyarlos a todos, y con suerte, cuando nuevas curvas aparezcan en el futuro, podremos apoyarlas también”.

El MIT también anunció un nuevo chip para hacer que la inteligencia artificial sea más rápida y más eficiente en teléfonos inteligentes.

Estos chips procesan datos siete veces más rápido utilizando un 95 por ciento menos de energía que los medios tradicionales.

Es un chip de red neuronal que reduce el consumo de energía en un 95 por ciento.
Admitting sildenafil overnight they can affect your admiration they are not the alone issue. If nothing else, the discovery that problems with the eye-sight were seen amongst the users of this drug shortly after the dosage. cheap viagra pill The condition may be apparent in two ways: Firstly, he might fail to maintain erection for buy viagra long time. In2herbs offers you the capsules that are levitra cheapest price not only affordable but also great in quality.
Esta característica lo hace ideal para dispositivos con baterías como teléfonos móviles y tabletas para aprovechar los sistemas de redes neuronales más complejos.

Las redes neuronales están compuestas de muchos procesadores de información básicos que están interconectados.

Por lo general, estas redes aprenden cómo realizar tareas al analizar grandes conjuntos de datos y aplicarlos a tareas nuevas.

Ahora se usan para cosas típicas, como reconocimiento de voz, manipulación de fotos, así como para tareas más novedosas, como reproducir lo que su cerebro realmente ve y crear líneas de recogida extravagantes y nombrar cervezas artesanales.

El problema es que las redes neuronales son grandes y los cálculos que realizan son intensivos en energía.

Los que están en su teléfono tienden a ser pequeños por esa razón, lo que limita su practicidad.

Además de la disminución de potencia, el nuevo chip MIT aumenta la velocidad de cálculo de las redes neuronales de tres a siete veces on respeto a iteraciones anteriores.

Los investigadores lograron simplificar los algoritmos de aprendizaje automático en redes neuronales en un solo punto, llamado producto punto.

Esto representa todo el movimiento hacia adelante y hacia atrás de varios nodos en la red neuronal y evita tener que pasar esos datos de ida y vuelta a la memoria, como en los diseños anteriores.

El nuevo chip puede calcular productos de puntos para múltiples nodos (16 nodos en el prototipo) en un solo paso en lugar de mover los resultados brutos de cada cálculo entre el procesador y la memoria.

El vicepresidente de inteligencia artificial de IBM, Dario Gil, cree que este es un gran paso adelante.

“Los resultados muestran especificaciones impresionantes para la implementación eficiente de la energía de las operaciones de convolución con matrices de memoria”, dijo en un comunicado.

“Ciertamente abrirá la posibilidad de emplear redes neuronales convolucionales más complejas para clasificaciones de imágenes y video en la IoT en el futuro”.

Fuentes: Engadget, Engadget

Editor PDM

Entradas recientes

Mano robótica capaz de manipular objetos

Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)

3 days hace

Robots atraviesan entornos complejos sin sensores adicionales ni entrenamiento previo en terrenos difíciles

Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…

3 days hace

Rompiendo barreras: IA para interpretar el lenguaje de señas americano en tiempo real

El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…

3 days hace

Dispositivo ayuda a personas con discapacidad visual a realizar tareas de localización tan bien como las personas videntes

Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…

3 days hace

Google lanza una versión de Gemini 2.0 capaz de razonar

Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…

3 days hace

El siguiente paso de la computación cuántica: un nuevo algoritmo potencia la multitarea

Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…

4 days hace
Click to listen highlighted text!