Categorías: Tecnología

Inteligencia artificial permite a una supercomputadora procesar datos mucho más allá de su capacidad teórica

Comparta este Artículo en:

Un algoritmo de aprendizaje automático (una modalidad de inteligencia artificial) ha demostrado que puede dotar al computador donde se instale de la capacidad de procesar datos aunque superen ampliamente la memoria disponible del computador.

El algoritmo identifica las características clave de un conjunto masivo de datos y divide el conjunto en lotes manejables que no ahogan el hardware del computador.

Desarrollado en el Laboratorio Nacional de Los Álamos, el algoritmo batió un récord mundial al procesar enormes conjuntos de datos durante una prueba realizada en Summit, la quinta supercomputadora más rápida del mundo, instalada en el Laboratorio Nacional de Oak Ridge, Estados Unidos.

Siendo igual de eficiente en una supercomputadora y en un computador portátil, el algoritmo resuelve los cuellos de botella de hardware que impiden procesar la información de aplicaciones con gran cantidad de datos, en campos como la investigación sobre el cáncer, el análisis de imágenes captadas desde satélite, el procesamiento de datos a gran escala de redes sociales, el estudio de terremotos y la seguridad nacional, por nombrar solo algunas.

El algoritmo lo ha desarrollado el equipo de Ismael Boureima, del Laboratorio Nacional de Los Álamos en Estados Unidos.

“El análisis de datos tradicional exige que los datos se ajusten a las limitaciones de memoria.

Nuestro planteamiento desafía esta noción“, afirma Manish Bhattarai, especialista en aprendizaje automático en el Laboratorio Nacional de Los Álamos y miembro del equipo de investigación y desarrollo.

“Cuando el volumen de datos supera la memoria disponible, nuestro algoritmo divide el conjunto de datos en segmentos más pequeños.

Procesa estos segmentos de uno en uno, introduciendo en la memoria y sacando de ella cada segmento según convenga.

Esta técnica nos dota de una capacidad única para gestionar y analizar de forma eficiente conjuntos de datos extremadamente grandes“.

En la ejecución récord del algoritmo, se procesó una matriz densa de 340 terabytes y una matriz dispersa de 11 exabytes utilizando solo 25.000 GPUs.

Fuente: The Journal of Supercomputing

Editor PDM

Entradas recientes

Mano robótica capaz de manipular objetos

Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)

2 days hace

Robots atraviesan entornos complejos sin sensores adicionales ni entrenamiento previo en terrenos difíciles

Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…

2 days hace

Rompiendo barreras: IA para interpretar el lenguaje de señas americano en tiempo real

El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…

2 days hace

Dispositivo ayuda a personas con discapacidad visual a realizar tareas de localización tan bien como las personas videntes

Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…

3 days hace

Google lanza una versión de Gemini 2.0 capaz de razonar

Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…

3 days hace

El siguiente paso de la computación cuántica: un nuevo algoritmo potencia la multitarea

Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…

3 days hace
Click to listen highlighted text!