Microsoft acaba de anunciar Phi-3 Mini, el primero de una serie de pequeños modelos de lenguaje (SLM). La compañía promete que esta inteligencia artificial es capaz de igualar a GPT 3.5 siendo considerablemente más pequeño que el LLM de OpenAI. A su vez, ofreciendo un coste menor y una ejecución más liviana para el hardware.

Y es que esta sería la ventaja más clara de Phi-3 Mini, la posibilidad de ejecutarlo con soltura en dispositivos móviles y ordenadores básicos. Según Microsoft, esta nueva versión puede ofrecer respuestas cercanas a otros modelos 10 veces más grandes.

De hecho, Phi-3 Mini funciona mejor y es más avanzado que Phi-2, siendo este último una versión estándar y no una reducida. La compañía tiene planes para lanzar otros dos modelos de la misma serie: Small y Medium con capacidad de gestionar 7.000 y 14.000 millones de parámetros respectivamente.

Estos serían los encargados de ponérselo difícil a otros modelos como Gemini o ChatGPT, sobre todo si la compañía es capaz de replicar la relación de rendimiento-parámetros que ofrece en la versión reducida.

Phi-3 Mini se ha entrenado con cuentos infantiles

Centrándonos en Phi-3 Mini, Microsoft nos cuenta que tiene la capacidad de gestionar unos 3.800 millones de parámetros, un dato que hace referencia a la cantidad de instrucciones complejas que puede comprender el modelo de lenguaje. No es un problema que sea, por ejemplo, unas 46 veces más pequeño que ChatGPT 3.5, pues su entrenamiento le permite ofrecer un rendimiento mucho más avanzado del que avecinan sus cifras.

Microsoft ha comentado que Phi-3 se ha entrenado de la misma forma que un niño desempeña sus conocimientos a través de los cuentos infantiles. Han utilizado palabras simples que explican conceptos más complejos y abiertos.

"No hay suficientes libros para niños, así que tomamos una lista de más de 3.000 palabras y le pedimos a un LLM que hiciera 'libros para niños' para enseñar a Phi", comenta el vicepresidente de Microsoft Azure.

Su objetivo como modelo de lenguaje es ofrecer respuestas a conocimientos generales. Phi-1 se centró en el cifrado y Phi-2 comenzó a relfexionar. Ahora la tercera versión suma lo aprendido en ambas y ofrece una mejor resolución de problemas, un mayor nivel de codificación y un razonamiento más amplio.

Además, ya es posible comprobar dicho rendimiento y mejoras a través de Microsoft Azure, Hugging Face y Ollama.

El 'Mini' es su mayor baza

Microsoft Phi-3

No es casualidad que Microsoft haya optado por unos conocimientos más generalistas con Phi-3 Mini. La compañía se ha dado cuenta de que hay muchas industrias que necesitan modelos de lenguaje, pero que no tienen la capacidad de gestionar algunos LLM como ChatGPT 4. Tampoco cuentan con el presupuesto para convertirlos en inversiones rentables, por lo que requieren opciones más básicas.

Microsoft ha querido echar el ancla y dejar de mirar solo a las grandes ligas, donde cada vez es más complicado competir. Con Phi-3 Mini ofrece una solución muy potente, costes reducidos y la capacidad de ejecutar el modelo de lenguaje en casi cualquier dispositivo modesto.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: