Gemma, la nueva IA de código abierto de Google, funciona con la misma tecnología de Gemini y está destinada a desarrolladores e investigadores.
Este año, Google no quiere quedarse atrás en cuanto a IA, y prueba de ello es el constante anuncio de modelos como Gemini o la inteligencia artificial que utilizan a nivel interno para que sus empleados sean más productivos.
La compañía, ahora, ha presentado Gemma, una “familia” de modelos de IA abiertos destinados a desarrolladores e investigadores.
El nuevo modelo está construido con la misma tecnología que se utilizó para crear su IA comercial, y se ha desarrollado bajo Google DeepMind, el departamento de inteligencia artificial de Google.
La diferencia, es que Gemma es algo más ligero que Gemini, pues está pensado para tareas más básicas.
Es, además, un modelo de código abierto, lo que permite que cualquier persona pueda acceder al código para revisarlo e implementarlo en cualquiera de sus plataformas.
Gemma está pensado para desarrolladores y expertos que quieran potenciar sus servicios con IA.
De hecho, los términos de Google en cuanto a este modelo permiten el “uso comercial responsable y la distribución a todas las organizaciones, independientemente de su tamaño”.
Google ha lanzado dos versiones de su nuevo modelo: Gemma 2B y Gemma 7B, que se diferencian en tamaño y están ajustadas y entrenadas para diferentes tipos de tareas.
Google afirma que Gemma es un modelo más potente que Llama-2, la IA de código abierto de Meta, en prácticamente todos los aspectos, incluyendo en operaciones matemáticas y generación de código a través de Python.
Gemma se puede utilizar en computadores portátiles, estaciones de trabajo o en Google Cloud.
Se puede descargar desde Kaggle, Hugging Face, Colab.
Google también se ha asociado con Nvidia, quien está trabajando para optimizar todas sus plataformas de IA para Gemma.
“Los desarrolladores también pueden ejecutar Gemma en las GPU NVIDIA en la nube, incluidas las instancias A3 de Google Cloud basadas en la GPU H100 Tensor Core y, próximamente, las GPU H200 Tensor Core de NVIDIA, con 141 GB de memoria HBM3e a 4,8 terabytes por segundo, que Google implementará en este año”, ha afirmado la compañía.
Google, por otro lado, ha creado un kit de herramientas para que los desarrolladores puedan implementar de forma responsable estos modelos en sus productos.
Fuente: Google
Un equipo global de investigadores y colaboradores de la industria dirigido por la Universidad RMIT…
Es un asistente de inteligencia artificial gratuito para usar en WhatsApp. (more…)
El primer medicamento fabricado en el espacio debía volver a la Tierra en septiembre, pero…
Deje atrás sus problemas de almacenamiento gracias a una nueva técnica que alberga datos en…
Investigadores del Departamento de Ingeniería Química de la Vrije Universiteit Brussel, la Universidad Técnica de…
Hace unos años, científicos del Instituto Tecnológico de Massachusetts (MIT) en Estados Unidos inventaron una…