En marzo de 2022 NVIDIA presentaba su GPU H100 con arquitectura Hopper, sucesora de Ampere, un monstruo de la computación con 80.000 millones de transistores.
Contaba con el llamado Transformer Engine, “diseñado para acelerar el entrenamiento de modelos de inteligencia artificial”, pero por entonces muchos no podíamos imaginar lo importante que era eso.
Luego apareció ChatGPT y nos dimos cuenta de cómo este chip era clave para entrenar esos modelos.
NVIDIA se ha hecho de oro con estos lanzamientos, y aunque en mayo presentó sus superchips GH200, ahora acaba de presentar otra vez estos chips… o casi.
En mayo de 2023 llegaban los bestiales superchip GH200 de NVIDIA.
Combinaban la CPU Grace (72 núcleos ARM y hasta 480 GB de memoria LPDDR5X) con la GPU Hopper H100 (528 núcleos Tensor y 80 GB de memoria HBM3).
Ahora NVIDIA ha presentado una revisión de estos “Superchip GH200” que cuentan con exactamente la misma CPU, que está en un segundo plano en este ámbito, pero que incluyen una mejora importante para la GPU: la memoria ya no es HBM3, sino HBM3e.
No parece que esa diferencia pudiera ser tan importante, pero lo es.
Esta nueva versión de la memoria tiene mayor ancho de banda (de 4 TB/s a 5 TB/s), pero sobre todo tiene mayor capacidad gracias a sus chips de 24 GB.
Eso permite que NVIDIA amplíe la memoria GPU de los 96 a los 144 GB, un 50% más que supone una diferencia brutal para aplicaciones de inteligencia artificial.
Este Superchip permite además funcionar en configuración dual, lo que supondría contar con 282 GB de memoria HBM3e.
Según NVIDIA, eso permite contar con una capacidad de memoria que es 3,5 veces superior a la que ofrecía su GH200 original, y hasta 3 veces más ancho de banda (10 TB/s al combinar los dos).
El supercomputador DGX GH200 que ya había sido presentado en mayo también se beneficia de estas mejoras porque puede integrar estos nuevos Superchips en lugar de los originales con memoria HBM3 convencional.
Los nuevos GH200 no estarán disponibles hasta el segundo trimestre de 2024.
Fuente: NVIDIA