Categorías: Tecnología

Intel prepara su propio ChatGPT para el ámbito científico y un billón de parámetros

Comparta este Artículo en:

La inteligencia artificial se ha convertido en foco absoluto de la industria tecnológica, y muchas empresas (aunque no todas) han virado y redirigido sus esfuerzos hacia este campo.

El último ejemplo lo tenemos en Intel, que acaba de anunciar las especificaciones de su próximo y alucinante supercomputador, y lo ha acompañado de un nuevo modelo de inteligencia artificial generativa.

Aurora. Así se llamará el nuevo supercomputador creado por Intel para el Argonne National Laboratory de Estados Unidos.

Tras numerosos retrasos, este proyecto ha doblado sus objetivos iniciales y contará con una potencia de más de 2 exaFlops (Frontier, el actual líder del ranking Top500, alcanza los 1,6 ExaFlops).

Para ello usará 21.248 CPUs Xeon, 63.744 GPUs Xeon Max y 10,9 Pbytes de memoria DDR5.

Parte de esos recursos se utilizarán para el desarrollo y aplicación de nuevos modelos de IA generativa específicamente orientados al ámbito científico.

Según la empresa, esos modelos se entrenarán con texto general, código, textos científicos y “datos científicos estructurados de campos como la biología, la química, la ciencia de materiales, la física, la medicina y otras fuentes”.

Según Intel los modelos resultantes “Aurora genAI” podrán llegar a tener hasta un billón de parámetros.

Es casi el doble de los que por ejemplo se utilizaron para entrenar a PaLM (predecesor del recién lanzado PaLM 2), y casi seis veces más de los usados para GPT-3, cuya variante GPT-3.5 es la base de ChatGPT.

El objetivo de estos gigantescos modelos será el de ser aplicados a campos como el diseño de materiales o a la experimentación en biología, ciencia climática o cosmología.

El modelo, afirman en Intel, se podrá usar para acelerar la identificación de procesos biológicos relacionados con el cáncer y otras enfermedades, además de sugerir objetivos para el diseño de medicamentos.

Estos esfuerzos vendrán acompañados del desarrollo de chips específicamente orientados al procesamiento y entrenamiento de modelos de IA.

Los chips de la familia Falcon Shores tendrán 288 gigabytes de memoria y soportarán computación de coma flotante de 8-bit.

Esas especificaciones son importantes para su aplicación en el campo de la IA, y el objetivo de Intel es recortar la distancia que en este ámbito la separan de NVIDIA e incluso de AMD, que pronto lanzará los prometedores chips MI300.

Fuente: Intel

Editor PDM

Entradas recientes

Crean un implante que ayuda a personas con Parkinson a caminar

El invento ya se probó en un paciente francés, de 63 años, al que le…

5 hours hace

Nuevo compuesto de sangre de cerdo reversa la edad biológica de las ratas

Un par de científicos han desvelado una nueva terapia antienvejecimiento, elaborada a partir de sangre…

5 hours hace

Nuevas y revolucionarias pinzas hechas de luz para atrapar y manipular microobjetos

La necesidad de manipular objetos sin interactuar de forma física con ellos o a través…

5 hours hace

Fluctuaciones cuánticas del vacío para cambiar el estado magnético de un material

Un capítulo reciente en la investigación de física de materiales ha sido el uso de…

5 hours hace

Crean transistor térmico para dirigir el movimiento del calor

Se ha presentado públicamente un transistor térmico de estado sólido, el primero de su tipo,…

5 hours hace

Descubren un nuevo efecto cuántico llamado “espinarón”

Por primera vez, físicos experimentales han demostrado un nuevo efecto cuántico llamado acertadamente espinarón, un…

1 day hace
Click to listen highlighted text!