Competencia con licencia Open Source para que cualquiera lo use libremente.
StableLM. Así se llama el modelo creado por Stability AI, la misma startup responsable del fantástico Stable Diffusion para generar imágenes.
Ahora han hecho algo similar con StableLM, un modelo de IA conversacional que trata de rivalizar con ChatGPT.
El código de este modelo está en versión alpha, pero ya se puede probar a través del código en GitHub o directamente vía HuggingFace, una plataforma que permite hospedar estos modelos de IA y también código.
Según Stability AI, los modelos de StableLM disponible pueden generar tanto código como texto y demostrar que incluso con un tamaño relativamente pequeño “se puede ofrecer un gran rendimiento con el entrenamiento apropiado”.
Stability AI explica que el entrenamiento se ha realizado con un conjunto de datos llamado The Pile, que aglutina textos de sitios web como PubMed, StackExchange o Wikipedia.
Han añadido además un conjunto de datos de entrenamiento adicional que según esta startup ha multiplicado el tamaño de The Pile por tres.
Aquí hay que señalar que Stability AI está ahora mismo inmersa en demandas legales por haber entrenado a Stable Diffusion con imágenes de repositorios no públicos como el de Getty Images.
El modelo está dando sus primeros pasos, y eso deja claro por qué no puede competir de momento con ChatGPT y menos aún con GPT-4.
De momento hay modelos disponibles con 3.000 y 7.000 millones de parámebtros, y pronto los seguirán los modelos con 15.000 y 65.000 millones, lo que debería mejorar la precisión de las respuestas (GPT-3 tiene 175.000 millones, por ejemplo).
StableLM hace uso de una licencia CC BY-SA-4.0, lo que significa que entre otras cosas se permite el uso de este motor de IA para fines comerciales.
Aunque en Stability AI no lo indican, el conjunto de datos The Pile contiene textos con lenguaje tóxico, así que no parece descabellado pensar que es posible forzar a este chatbot a que acabe conversando de forma tóxica.
En el anuncio oficial indican cómo “las respuestas que los usuarios reciben pueden ser de calidad variable y podrían potencialmente ofrecer un lenguaje o una perspectiva ofensiva. Esto se espera que mejore con el escalado, mejores datos, comentarios de la comunidad y optimización”.
Fuente: Stability.ai