Se está utilizando para entrenar las redes neuronales que impulsan el piloto automático de Tesla y la próxima inteligencia artificial autónoma.
En los últimos años, Tesla se ha centrado claramente en la potencia informática tanto dentro como fuera de sus vehículos.
En el interior, necesita computadoras lo suficientemente potentes para ejecutar su software de conducción autónoma, y en el exterior, necesita supercomputadoras para entrenar su software de conducción autónoma impulsado por redes neuronales que se alimentan de una cantidad increíble de datos provenientes de la flota.
El proyecto Dojo de Tesla consiste en una supercomputadora capaz de un exaFLOP, un quintillón (1018) de operaciones de punto flotante por segundo o 1,000 petaFLOPS, lo que la convierte en una de las computadoras más poderosas del mundo.
Tesla ha estado trabajando en Dojo durante los últimos años, y Musk ha insinuado que debería estar listo para fines de este año.
Pero la compañía ha desarrollado otras supercomputadoras en su camino hacia Dojo, y ahora Andrej Karpathy, director de IA de Tesla, ha presentado la última durante una presentación en la Conferencia 2021 sobre Visión por Computadora y Reconocimiento de Patrones.
Durante la presentación, Karpathy hizo un reconocimiento al equipo de supercomputación de Tesla y mostró su último trabajo, el tercer grupo de supercomputadoras de Tesla:
720 nodos de 8x A100 80GB. (5760 GPU en total)
1.8 EFLOPS (720 nodos * 312 TFLOPS-FP16-A100 * 8 gpu/nodos)
10 PB de almacenamiento NVME de “nivel activo” a 1,6 TBps
640 Tbps de capacidad de conmutación total
Karpathy comentó sobre el esfuerzo:
“Tenemos una red de arquitectura de red neuronal y tenemos un conjunto de datos, un conjunto de datos de 1,5 petabytes que requiere una gran cantidad de computación.
Así que quería conectar esta supercomputadora que estamos construyendo y usando ahora.
Para nosotros, la visión por computadora es el pan y la mantequilla de lo que hacemos y lo que habilita el piloto automático.
Y para que eso funcione realmente bien, necesitamos dominar los datos de la flota, entrenar redes neuronales masivas y experimentar mucho.
Así que invertimos mucho en la computación.
En este caso, tenemos un clúster que construimos con 720 nodos de 8x A100 de la versión de 80GB.
Así que esta es una supercomputadora enorme.
De hecho, creo que es aproximadamente la supercomputadora número 5 del mundo“.
No quiso dar más detalles sobre el proyecto Dojo, pero dijo que será una supercomputadora aún mejor optimizada para el entrenamiento de redes neuronales que el grupo actual de Tesla.
Musk también dijo anteriormente que Tesla planea eventualmente poner sus supercomputadoras a disposición de otras compañías para que puedan entrenar sus redes neuronales en ellas.
Fuente: Electrek
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)
Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…
El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…
Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…
Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…
Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…