Vivimos en un mundo en el que cada vez más compañías se involucran en el campo de la inteligencia artificial (IA).
Desde Meta hasta Microsoft y Tesla, todas han invertido millones de dólares en crear sus propios sistemas de cálculo de alto rendimiento siguiendo los modelos de la supercomputación tradicional.
Pero IBM, que tiene vasta experiencia en el sector, ha decidido apostar por una solución diferente.
En lugar de montar un supercomputador en una ubicación determinada, con todo el esfuerzo que esto conllevaría, IBM pensó en desarrollar una infraestructura flexible que se pudiera implementar en cualquiera de sus centros de datos repartidos alrededor del mundo a través de la nube.
Este sistema híbrido llamado “Vela” ya es una realidad.
De hecho, ha estado funcionando discretamente desde mayo del año pasado.
La idea de utilizar la virtualización para entrenar los modelos de inteligencia artificial cada vez más complejos que existen puede que no resulte demasiado convincente o efectiva.
Sabemos que el hecho de no ejecutar de forma nativa el software, por lo general, se traduce en una pérdida de rendimiento.
Y, ¿cómo se permite perder rendimiento donde cada margen de capacidad de cálculo es un importante recurso?
Desde IBM señalan que después de mucho tiempo de investigación han conseguido reducir la sobrecarga de la virtualización a aproximadamente el 5%.
Estos valores, según la compañía, si se los contrasta con la versatilidad de la solución se encuentran dentro de los parámetros aceptables.
Una de las ventajas es la de utilizar infraestructura existente y de asignar recursos rápidamente a través de software.
El gigante estadounidense ahora tiene la capacidad de disponer de su capacidad de cálculo de manera flexible.
Precisamente, esta primera configuración de Vela parece bestial.
Desconocemos la cantidad exacta de nodos que forman parte de la configuración que están utilizando en IBM Research, pero sí sabemos cómo está conformado cada uno.
Cada nodo tiene dos procesadores Intel Xeon de 2ª generación, 1,5 TB de DRAM, cuatro unidades NVMe de 3,2 TB y ocho GPUs NVIDIA A100 de 80 GB.
Además, Vela se beneficia de las soluciones escalables de NVLink y NVSwitch, es decir, de una interconexión directa entre GPU que escala la entrada/salida (IO) de varias GPU para ofrecer comunicación total a velocidad NVLink completa dentro de un solo nodo y entre nodos.
Los creadores del famoso sistema Watson dicen que se han propuesto “reducir el tiempo para construir e implementar modelos de IA de clase mundial”.
Ahora esperan seguir haciendo avances en este campo y creando “nuevas oportunidades para la innovación”.
Eso sí, de momento, Vela será un recurso exclusivo para los investigadores de IBM Research.
Fuente: IBM
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)
Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…
El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…
Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…
Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…
Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…