DeepSeek, la empresa china que puso de cabeza a OpenAI y otras empresas tecnológicas, ha lanzado la última versión de su modelo estrella: DeepSeek V3-0324. Esta inesperada actualización introduce mejoras en rendimiento y accesibilidad, posicionándolo como uno de los modelos de IA más avanzados para el usuario final. Una de sus características más llamativas es su capacidad para ejecutarse en un Mac Studio con chip M3 a una velocidad sorprendente.
A diferencia de DeepSeek V3, el nuevo modelo, con 685 mil millones de parámetros, mejora significativamente la velocidad y eficiencia del procesamiento. Esto lo convierte en una opción más viable para ejecutarse en ordenadores de consumo de gama alta.
Según las primeras pruebas, DeepSeek V3-0324 puede ofrecer un rendimiento superior a 20 tokens por segundo en un Mac Studio M3 Ultra con 512 GB de memoria unificada. Esta velocidad se logra mediante MLX, una biblioteca de código abierto que optimiza la ejecución de modelos de gran tamaño.
DeepSeek V3-0324 utiliza cuantificación de 4 bits mediante el complemento mlx-community/DeepSeek-V3-0324-4bit
, lo que reduce el tamaño del modelo en disco de 641 GB a unos 352 GB más manejables. Este nivel de optimización permite ejecutar el modelo en hardware que antes se consideraba insuficiente para tareas de IA a gran escala.
Otro cambio notable es el nuevo esquema de licencia. DeepSeek ha publicado la versión V3-0324 bajo la licencia MIT, alejándose de la licencia propietaria de su predecesor. Este cambio permitirá a los desarrolladores integrarlo libremente en proyectos comerciales y de código abierto, ampliando sus posibles aplicaciones. Sin embargo, la empresa aún no ha proporcionado documentación completa (el archivo README está vacío), aunque la comunidad ya ha comenzado a experimentar con el modelo.

DeepSeek V3-0324, su modelo de IA más potente y accesible
Uno de los aspectos distintivos del lanzamiento de DeepSeek fue su entrenamiento con bajo poder de cómputo. Esto es posible gracias a la arquitectura MoE (Mixture of Experts), que activa solo las partes del modelo necesarias para una tarea específica. A diferencia de modelos más monolíticos como GPT-4.5, DeepSeek divide el modelo en componentes especializados, optimizando así el uso de recursos.
El aprovechamiento de hardware y técnicas optimizadas se ha ampliado en esta versión, eliminando la necesidad de depender exclusivamente de soluciones en la nube. No obstante, DeepSeek V3-0324 sigue requiriendo un ordenador de gama alta. Un Mac Studio M3 Ultra con 512 GB de memoria cuesta unos 15.000 euros, lo que supone una inversión considerable para quienes deseen ejecutar el modelo de forma local.
Aquellos con el hardware adecuado pueden acceder al modelo a través del complemento llm-mlx
, ejecutando los siguientes comandos:
llm mlx download-model mlx-community/DeepSeek-V3-0324-4bit
llm chat -m mlx-community/DeepSeek-V3-0324-4bit
Para quienes prefieran probarlo en la nube, el modelo está disponible en OpenRouter y Hugging Face.