El objetivo de Musk pasa por entrenar su modelo de IA Grok3, que promete tener listo en diciembre.
Hace meses que Elon Musk se prepara para intentar ganar la batalla de la IA.
Ahora ha dado un paso más en esa dirección, y acaba de poner en marcha un gigantesco clúster que cuenta con 100.000 GPUs NVIDIA H100 y que será crucial para entrenar su próximo modelo de IA.
El magnate creó xAI en 2023 para lograr competir en este mercado.
A finales de ese año lanzó Grok, su particular (y sarcástico) rival a ChatGPT, y meses después intentó ganarse a los desarrolladores abriendo la mayor parte del proyecto como código abierto.
Musk anuncia la puesta en marcha del “Memphis Supercluster“, que inició su actividad con 1.000 tarjetas gráficas NVIDIA H100 con refrigeración líquida.
Según sus palabras, se trata del “clúster de entrenamiento IA más potente del mundo“.
El creador de Tesla y SpaceX lleva meses comprando estas tarjetas tanto para xAI como para entrenar sus sistemas de conducción autónoma en Tesla, aunque recientemente parece que parte de ellas fueron desviadas a X.
A continuación Musk aseguró que “este es una ventaja significativa para entrenar la IA más potente del mundo en todas las métricas” y aseguró que estará disponible en “diciembre de este año“.
Se refiere probablemente a Grok3, la tercera generación de un modelo que de momento sigue sin tener la popularidad que sus competidores.
El gigantesco Memphis Supercluster se podría convertir de repente en el líder absoluto de la lista Top500, al menos si nos fijamos en ese número de GPUs y su potencia.
Los supercomputadores más potentes del mundo no disponen de tantas GPUs: Frontier tiene 37.888 GPUs de AMD, Aurora tiene 60.000 de Intel y Microsoft Eagle tiene 14.400 de estas NVIDIA H100.
Todos se quedan pequeños ante este nuevo “monstruo“, aunque no queda claro si su foco específico en el entrenamiento de modelos de IA hará que aparezca en las próximas ediciones de esa prestigiosa lista con los supercomputadores más potentes del mundo.
Fuente: Xataca