Gemma, la nueva IA de código abierto de Google, funciona con la misma tecnología de Gemini y está destinada a desarrolladores e investigadores.
Este año, Google no quiere quedarse atrás en cuanto a IA, y prueba de ello es el constante anuncio de modelos como Gemini o la inteligencia artificial que utilizan a nivel interno para que sus empleados sean más productivos.
La compañía, ahora, ha presentado Gemma, una “familia” de modelos de IA abiertos destinados a desarrolladores e investigadores.
El nuevo modelo está construido con la misma tecnología que se utilizó para crear su IA comercial, y se ha desarrollado bajo Google DeepMind, el departamento de inteligencia artificial de Google.
La diferencia, es que Gemma es algo más ligero que Gemini, pues está pensado para tareas más básicas.
Es, además, un modelo de código abierto, lo que permite que cualquier persona pueda acceder al código para revisarlo e implementarlo en cualquiera de sus plataformas.
Gemma está pensado para desarrolladores y expertos que quieran potenciar sus servicios con IA.
De hecho, los términos de Google en cuanto a este modelo permiten el “uso comercial responsable y la distribución a todas las organizaciones, independientemente de su tamaño”.
Google ha lanzado dos versiones de su nuevo modelo: Gemma 2B y Gemma 7B, que se diferencian en tamaño y están ajustadas y entrenadas para diferentes tipos de tareas.
Google afirma que Gemma es un modelo más potente que Llama-2, la IA de código abierto de Meta, en prácticamente todos los aspectos, incluyendo en operaciones matemáticas y generación de código a través de Python.
Gemma se puede utilizar en computadores portátiles, estaciones de trabajo o en Google Cloud.
Se puede descargar desde Kaggle, Hugging Face, Colab.
Google también se ha asociado con Nvidia, quien está trabajando para optimizar todas sus plataformas de IA para Gemma.
“Los desarrolladores también pueden ejecutar Gemma en las GPU NVIDIA en la nube, incluidas las instancias A3 de Google Cloud basadas en la GPU H100 Tensor Core y, próximamente, las GPU H200 Tensor Core de NVIDIA, con 141 GB de memoria HBM3e a 4,8 terabytes por segundo, que Google implementará en este año”, ha afirmado la compañía.
Google, por otro lado, ha creado un kit de herramientas para que los desarrolladores puedan implementar de forma responsable estos modelos en sus productos.
Fuente: Google
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)
Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…
El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…
Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…
Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…
Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…