Con el anuncio de Gemini 2.0, Google presentó Trillium, un poderoso chip de sexta generación capaz de entrenar modelos de IA.
Google ha presentado un nuevo chip que impulsará el desarrollo de su inteligencia artificial, Gemini 2.0.
Conocido como Trillium, el nuevo procesador ofrece cuatro veces el rendimiento de su antecesor en tareas de entrenamiento.
Al mismo tiempo, Google asegura que ha incrementado la eficiencia hasta en un 67%, lo que permite el entrenamiento de modelos avanzados sin un impacto en el consumo energético.
El chip de sexta generación ha sido el responsable de entrenar a Gemini 2.0, la versión más reciente del modelo de inteligencia artificial de Google.
De acuerdo con el fabricante, Trillium es un componente clave de su hipercomputador de IA, el cual puede alojar más de 100.000 chips con un ancho de banda de 13 Petabits/seg a través de una estructura de red Júpiter.
En términos de especificaciones, Trillium ofrece una mejora de 4 veces en el rendimiento de entrenamiento comparado con la generación anterior.
El nuevo TPU también garantiza un aumento de hasta 3 veces en el rendimiento de inferencia, así como 4,7 veces el rendimiento informático máximo por chip.
Otras ventajas del acelerador de IA que destacan son el doble de capacidad de memoria de alto ancho de banda (HBM2) y el doble de ancho de banda de interconexión entre los chips.
El ejemplo más claro de su potencia es Gemini 2.0.
Según Sundar Pichai, director ejecutivo de Google, los TPU de Trillium impulsaron el 100% del entrenamiento y la inferencia de Gemini 2.0, su nuevo modelo de lenguaje.
La tecnológica menciona que su chip puede utilizarse en cargas de trabajo de IA como formación y entrenamiento de modelos de lenguaje extensos (LLM), rendimiento de inferencias y programación de colecciones, modelos con uso intensivo de incrustaciones y más.
Trillium puede ser la respuesta definitiva de Google al dominio de NVIDIA en el terreno de la IA.
El gigante tecnológico ofrece acceso a un hipercomputador de IA que combina más de 100.000 chips, los cuales se utilizarían para entrenar modelos como Gemini o Llama.
“Los LLM como Gemini son inherentemente poderosos y complejos, con miles de millones de parámetros.
El entrenamiento de LLM tan densos requiere una enorme potencia computacional combinada con optimizaciones de software diseñadas conjuntamente“, dijo Mark Lohmeyer, vicepresidente de infraestructura de computación e IA en Google Cloud.
“Trillium ofrece un entrenamiento hasta 4 veces más rápido para LLM densos como Llama-2-70b y gpt3-175b que la generación anterior de Cloud TPU v5e”.
Google presume que la relación precio-rendimiento de sus TPU los convierte en una opción rentable para empresas que buscan maximizar su inversión en IA.
“Trillium proporciona un aumento de hasta 2.1 veces en el rendimiento por dólar sobre Cloud TPU v5e y hasta 2.5 veces en el rendimiento por dólar sobre Cloud TPU v5p en el entrenamiento de LLM densos como Llama2-70b y Llama3.1-405b“, señaló
Aunque NVIDIA mantiene su dominio, la oferta de Google y otros fabricantes podrían nivelar la balanza.
La ventaja de Trillium es que se trata de un chip personalizado, el cual ofrecería ventajas para cargas de trabajo específicas.
Fuente: Google
En los últimos años, los ingenieros han intentado crear sistemas de hardware que soporten mejor…
Se ha demostrado que el NanoGripper, hecho a partir de una sola pieza de ADN…
Investigadores han desarrollado un novedoso dispositivo que combina campos magnéticos y los principios de diseño…
Investigadores de Stanford Engineering han desarrollado un modelo entrenado con IA para recrear con precisión…
Un equipo de ingenieros y científicos ambientales de la Universidad de Mälardalen, en Suecia, la…
Imagínese un modelo de inteligencia artificial (IA) que pueda ver y comprender imágenes en movimiento…