Si creía que NVIDIA ya había llegado a su pico de rendimiento en el desarrollo de hardware especializado para la inteligencia artificial, estaba equivocado.
La compañía acaba de revelar su nueva GPU Blackwell B200 y el superchip Blackwell GB200, dos auténticas bestias que prometen llevar el entrenamiento de modelos de lenguaje a otro nivel.
Lo primero para destacar que es que la GPU B200 integra 208.000 millones de transistores, contra los 80.000 millones utilizados en las gráficas H100 y H200, las tope de línea de NVIDIA hasta ahora.
Este componente, desarrollado bajo un proceso de 4 nanómetros de TSMC, ofrece 20 petaflops de rendimiento FP4 e integra 192 GB de memoria HBM3e, con un ancho de banda de 8 TB por segundo.
El superchip Blackwell GB200, en tanto, combina dos GPU B200 y una CPU Grace para un rendimiento descomunal.
Para ello utiliza una interconexión de chip a chip NVLink de 900 GB por segundo y consumo energético “ultrabajo“.
Un rack GB200 NVL72, con 36 chips Grace y 72 GPU Blackwell B200, puede ofrecer un rendimiento 30 veces superior al de la misma cantidad de gráficas H100 Tensor Core en cargas de trabajo de inferencias de modelos de lenguaje de gran tamaño.
Y, según NVIDIA, lo consigue reduciendo hasta 25 veces su costo y consumo de energía.
NVIDIA afirma, además, que los nuevos SuperPOD potenciados por el superchip Blackwell GB200 son hasta 4 veces más rápidos para entrenar modelos de inteligencia artificial que las mismas soluciones basadas en la GPU H100.
Vale mencionar que cada SuperPOD puede incluir hasta 8 sistemas DGX GB200.
Esto significa que pueden acumular hasta 288 CPU Grace y 576 GPU Blackwell B200, para alcanzar un rendimiento FP4 de 11,5 exaflops.
La compañía también ha puesto el foco sobre la escalabilidad.
NVIDIA dice que miles de superchips Blackwell GB200 se pueden conectar con velocidades de hasta 800 Gb/s.
Esto, gracias a las tecnologías Spectrum-X800 y Quantum-X800 InfiniBand.
NVIDIA sostiene que las GPU Blackwell B200 y el superchip Blackwell GB200 dan vida a una plataforma que permitirá a empresas y organizaciones crear y ejecutar en tiempo real modelos de IA generativa de billones de parámetros.
La firma dirigida por Jensen Huang afirma que un solo rack GB200 NVL72 soporta modelos de hasta 27 billones de parámetros.
Una verdadera locura, considerando que los LLM más avanzados de la actualidad, como GPT-4, se estiman debajo de los 2 billones de parámetros.
Claro que la empresa californiana ya ha seducido a algunos de los jugadores más grandes del sector tecnológico para que implementen su nueva tecnología.
NVIDIA indica que los productos basados en la plataforma Blackwell estarán disponible en próximos meses y que Google Cloud, Microsoft Azure, Oracle y Amazon Web Services serán los primeros proveedores de servicios basados en la nube que utilizarán instancias potenciadas por este hardware en sus centros de datos.
Si bien no han brindado mayores detalles, NVIDIA ha comentado que Tesla y xAI también sacarán provecho de los chips Blackwell.
“La IA generativa es la tecnología que define nuestro tiempo.
Blackwell es el motor que impulsará esta nueva revolución industrial.
Trabajando con las empresas más dinámicas del mundo, haremos realidad la promesa de la IA para todas las industrias“, aseveró el CEO de NVIDIA.
Fuente: NVIDIA