Su nuevo modelo de inteligencia artificial de código abierto será de acceso gratuito para uso comercial e investigativo.
La firma de Mark Zuckerberg anunció la disponibilidad de su nuevo modelo de IA durante el evento Inspire, de Microsoft.
Y no es casualidad que haya ocurrido allí, ya que ambas compañías se aliaron para brindar acceso a LlaMA 2 por medio de Azure AI.
De esta forma, Meta se lanza con todo a la yugular de GPT-4, el modelo de lenguaje que potencia a ChatGPT.
Además, la firma californiana refuerza su posición en el segmento de la inteligencia artificial, donde Google también ha dado grandes avances con PaLM 2 y sus aplicaciones para fines más específicos, como Med-PaLM 2.
Lo interesante de LlaMA 2 es que, evidentemente, los de Zuckerberg han comprendido que existe gran demanda por los modelos de lenguaje de código abierto.
Algo que en Menlo Park seguramente comenzaron a valorar tras la filtración de LLaMA 1 en marzo pasado.
Esto permitió la proliferación de iniciativas open source capaces de ser desarrolladas, ejecutadas y mantenidas sin necesidad de bestiales cantidades de dinero.
Meta anunció que pondrá a disposición los parámetros y el código inicial del modelo preentrenado, así como versiones conversacionales ya optimizadas de LLaMA 2.
Y si bien la nueva alianza con Microsoft permitirá el fácil acceso a la IA a través de Azure, también se ofrecerá en otras plataformas. Tales los casos de Hugging Face y AWS.
Como no podía ser de otra manera, LLaMA 2 presume un crecimiento muy importante en comparación con su predecesor.
Meta afirma que su nueva inteligencia artificial se entrenó con un 40 % más de datos que LLaMA 1 y tiene el doble de la extensión de contexto.
Por otra parte, los de Zuckerberg afirman que los modelos preentrenados de LLaMA 2 se adiestraron usando 2 billones de tokens.
En tanto que las versiones conversaciones optimizadas se entrenaron con más de 1 millón de anotaciones humanas.
Pero como las cifras en torno a la IA nunca parecen ser suficientes, los de Menlo Park han lanzado tres tamaños de su modelo de lenguaje: de 7.000, 13.000 y 70.000 millones de parámetros.
Meta afirma que lanzar su nueva IA como un proyecto de código abierto forma parte de una estrategia de transparencia y accesibilidad.
Y si bien esto se presenta como un fin muy noble, también arroja una interesante lectura entre líneas.
Lo que la compañía está haciendo es tratar de ganarse un espacio importante en la comunidad de desarrolladores e investigadores, donde muchos no cuentan con el respaldo técnico o económico suficiente para costear el acceso a tecnologías propietarias como GPT-4, de OpenAI, o PaLM 2, de Google.
Así, no sería extraño que en el corto plazo comencemos a ver más alternativas a ChatGPT y Bard potenciadas por LLaMA 2, entre otras implementaciones.
Meta sabe que tiene una veta muy interesante por explorar en el mundo open source.
En tanto que Microsoft quiere demostrar que no tiene todos sus huevos en una única canasta, y que sus planes con la IA no están limitados a su brutal inversión en OpenAI.
Fuente: Meta AI
Investigadores de la Universidad Tecnológica de Sydney (Australia) han desarrollado una tecnología táctil acústica que…
El sensor blando inteligente puede mejorar las prótesis y mejorar la interacción entre humanos y…
Las ruedas paralelas reaccionan automáticamente en relación con la carrocería para mantener el vehículo en…
Cuando allá por los años 60 el diseñador italiano Dante Bini se propuso repensar la…
La compañía australiana FBR se ha marcado el que tal vez sea uno de los…
En el laboratorio CREATE de EPFL, bajo la dirección de Josie Hughes, se ha logrado…