La carrera por desarrollar el modelo de inteligencia artificial más potente acaba de sumar a otro protagonista: LLaMA 2. Se trata de la nueva IA de código abierto desarrollada por Meta, que a partir de hoy se encuentra disponible de forma gratuita tanto para uso comercial como investigativo.
La firma de Mark Zuckerberg anunció la disponibilidad de su nuevo modelo de IA durante el evento Inspire, de Microsoft. Y no es casualidad que haya ocurrido allí, ya que ambas compañías se aliaron para brindar acceso a LLaMA 2 por medio de Azure AI.
De esta forma, Meta se lanza con todo a la yugular de GPT-4, el modelo de lenguaje que potencia a ChatGPT. Además, la firma californiana refuerza su posición en el segmento de la inteligencia artificial, donde Google también ha dado grandes avances con PaLM 2 y sus aplicaciones para fines más específicos, como Med-PaLM 2.
Lo interesante de LLaMA 2 es que, evidentemente, los de Zuckerberg han comprendido que existe gran demanda por los modelos de lenguaje de código abierto. Algo que en Menlo Park seguramente comenzaron a valorar tras la filtración de LLaMA 1 en marzo pasado. Esto permitió la proliferación de iniciativas open source capaces de ser desarrolladas, ejecutadas y mantenidas sin necesidad de bestiales cantidades de dinero.
Meta anunció que pondrá a disposición los parámetros y el código inicial del modelo preentrenado, así como versiones conversacionales ya optimizadas de LLaMA 2. Y si bien la nueva alianza con Microsoft permitirá el fácil acceso a la IA a través de Azure, también se ofrecerá en otras plataformas. Tales los casos de Hugging Face y AWS.
Así es LLaMA 2, el nuevo modelo de IA open source de Meta
Como no podía ser de otra manera, LLaMA 2 presume un crecimiento muy importante en comparación con su predecesor. Meta afirma que su nueva inteligencia artificial se entrenó con un 40 % más de datos que LLaMA 1 y tiene el doble de la extensión de contexto.
Por otra parte, los de Zuckerberg afirman que los modelos preentrenados de LLaMA 2 se adiestraron usando 2 billones de tokens. En tanto que las versiones conversaciones optimizadas se entrenaron con más de 1 millón de anotaciones humanas. Pero como las cifras en torno a la IA nunca parecen ser suficientes, los de Menlo Park han lanzado tres tamaños de su modelo de lenguaje: de 7.000, 13.000 y 70.000 millones de parámetros.
Meta afirma que lanzar su nueva IA como un proyecto de código abierto forma parte de una estrategia de transparencia y accesibilidad. Y si bien esto se presenta como un fin muy noble, también arroja una interesante lectura entre líneas. Lo que la compañía está haciendo es tratar de ganarse un espacio importante en la comunidad de desarrolladores e investigadores, donde muchos no cuentan con el respaldo técnico o económico suficiente para costear el acceso a tecnologías propietarias como GPT-4, de OpenAI, o PaLM 2, de Google.
Así, no sería extraño que en el corto plazo comencemos a ver más alternativas a ChatGPT y Bard potenciadas por LLaMA 2, entre otras implementaciones. Meta sabe que tiene una veta muy interesante por explorar en el mundo open source. En tanto que Microsoft quiere demostrar que no tiene todos sus huevos en una única canasta, y que sus planes con la IA no están limitados a su brutal inversión en OpenAI.