Categorías: Tecnología

Inteligencia artificial permite a una supercomputadora procesar datos mucho más allá de su capacidad teórica

Comparta este Artículo en:

Un algoritmo de aprendizaje automático (una modalidad de inteligencia artificial) ha demostrado que puede dotar al computador donde se instale de la capacidad de procesar datos aunque superen ampliamente la memoria disponible del computador.

El algoritmo identifica las características clave de un conjunto masivo de datos y divide el conjunto en lotes manejables que no ahogan el hardware del computador.

Desarrollado en el Laboratorio Nacional de Los Álamos, el algoritmo batió un récord mundial al procesar enormes conjuntos de datos durante una prueba realizada en Summit, la quinta supercomputadora más rápida del mundo, instalada en el Laboratorio Nacional de Oak Ridge, Estados Unidos.

Siendo igual de eficiente en una supercomputadora y en un computador portátil, el algoritmo resuelve los cuellos de botella de hardware que impiden procesar la información de aplicaciones con gran cantidad de datos, en campos como la investigación sobre el cáncer, el análisis de imágenes captadas desde satélite, el procesamiento de datos a gran escala de redes sociales, el estudio de terremotos y la seguridad nacional, por nombrar solo algunas.

El algoritmo lo ha desarrollado el equipo de Ismael Boureima, del Laboratorio Nacional de Los Álamos en Estados Unidos.

“El análisis de datos tradicional exige que los datos se ajusten a las limitaciones de memoria.

Nuestro planteamiento desafía esta noción“, afirma Manish Bhattarai, especialista en aprendizaje automático en el Laboratorio Nacional de Los Álamos y miembro del equipo de investigación y desarrollo.

“Cuando el volumen de datos supera la memoria disponible, nuestro algoritmo divide el conjunto de datos en segmentos más pequeños.

Procesa estos segmentos de uno en uno, introduciendo en la memoria y sacando de ella cada segmento según convenga.

Esta técnica nos dota de una capacidad única para gestionar y analizar de forma eficiente conjuntos de datos extremadamente grandes“.

En la ejecución récord del algoritmo, se procesó una matriz densa de 340 terabytes y una matriz dispersa de 11 exabytes utilizando solo 25.000 GPUs.

Fuente: The Journal of Supercomputing

Editor PDM

Entradas recientes

Microrrobots para que se los lleve el viento

Los minúsculos robots de una innovadora gama sirven como sensores sofisticados pero de bajo costo,…

8 hours hace

Implantes con nanopartículas luminiscentes para tratar el dolor y la epilepsia

Las terapias basadas en la luz están cobrando importancia en medicina debido a su capacidad…

8 hours hace

Red Magic 9 Pro para gaming con la batería más grande del mercado y 24 GB de RAM

Una batería de 6.500mAh y hasta 1 TB + 24 GB. No hay teléfono más…

8 hours hace

OPPO introduce sus teléfonos Reno 11 y 11 Pro

OPPO acaba de presentar en su país natal a los OPPO Reno 11 y OPPO…

8 hours hace

Honor presenta sus teléfonos de gama alta: los Honor 100 y 100 Pro

Llegan con procesador de Qualcomm y una generosa batería de 5.000mAh. (more…)

8 hours hace

Inteligencia artificial identifica a los no fumadores con alto riesgo de cáncer de pulmón

Utilizando una imagen de rayos X de tórax de rutina, una herramienta de inteligencia artificial…

1 day hace
Click to listen highlighted text!