Fine-Tune Qwen3-Coder-Next with Ertas
El lanzamiento gigante-pequeño de Alibaba en febrero de 2026 — un modelo de mezcla de expertos de 80 mil millones de parámetros con solo 3B de parámetros activos por token, superando a DeepSeek V3.2 (37B activos), Kimi K2.5 y GLM-4.7 (32B activos cada uno) en benchmarks de programación mientras activa 10× menos parámetros. Apache 2.0 con contexto de 256K.
Overview
Qwen3-Coder-Next, lanzado por Alibaba el 2-4 de febrero de 2026, es uno de los lanzamientos open-weight más arquitectónicamente agresivos del año — un modelo de mezcla de expertos de 80 mil millones de parámetros que activa solo 3 mil millones de parámetros por token. La proporción 26:1 de total a activo está entre las más agresivas del ecosistema open-weight, y el modelo demuestra que los diseños MoE ultra-dispersos pueden ofrecer un rendimiento por parámetro activo sustancialmente mejor que las alternativas menos dispersas.
Los resultados destacados de los benchmarks son notables. A pesar de activar 10x menos parámetros que DeepSeek V3.2 (37B activos) y 10x menos que Kimi K2.5 / GLM-4.7 (32B activos cada uno), Qwen3-Coder-Next iguala o supera a estos en benchmarks de programación agéntica. Las puntuaciones en SWE-Bench Verified en el rango ~70,6% lo colocan competitivamente frente a modelos con un costo de inferencia sustancialmente mayor. Para despliegues en producción donde la economía del costo por token importa — agentes de programación de alto rendimiento, sistemas de revisión de código integrados con CI, programación en pareja con IA a escala — Qwen3-Coder-Next es una de las opciones open-weight más rentables disponibles.
La arquitectura está diseñada específicamente para despliegues de programación agéntica. Como la línea más amplia de Qwen3-Coder, el post-entrenamiento enfatiza recompensas de ejecución de código verificables y trazas multi-paso agénticas. La ventana de contexto de 256K es lo suficientemente generosa para razonamiento sobre bases de código completas en la mayoría de los proyectos, con una retención efectiva de contexto mejor que los modelos extendidos ingenuamente con RoPE en la misma longitud anunciada gracias a refinamientos arquitectónicos tomados de la línea de investigación Qwen3-Next.
La licencia Apache 2.0 combinada con la economía de inferencia gigante-pequeña hace que Qwen3-Coder-Next sea particularmente atractivo para despliegues auto-alojados de agentes de programación. Los pesos están disponibles en Hugging Face bajo `Qwen/Qwen3-Coder-Next`. El modelo se integra de forma nativa con Qwen-Agent, Claude Code, Cline, Aider y otras CLIs de programación agéntica mediante interfaces estándar MCP y de llamadas a funciones.
Key Features
El MoE ultra-disperso con proporción 26:1 de total a activo es la elección arquitectónica definitoria de Qwen3-Coder-Next. La capacidad total de 80B parámetros proporciona una amplitud sustancial de conocimiento, mientras que el conteo de 3B de parámetros activos mantiene la economía de inferencia en territorio de GPU de consumo. El rendimiento de generación de tokens en frameworks de inferencia estándar funciona aproximadamente a velocidades de clase 3B, haciendo el modelo desplegable en escenarios de producción sensibles a la latencia donde alternativas con mayor número de parámetros activos serían demasiado lentas.
El entrenamiento enfocado en programación se traduce en fiabilidad en el mundo real. El pipeline de post-entrenamiento enfatiza resultados verificables de ejecución de código — el modelo es recompensado por producir código que realmente se ejecuta y pasa pruebas, no solo código que parece correcto. Combinado con entrenamiento multi-paso de trazas agénticas (planificación, uso de herramientas, salidas observadas, iteración), esto produce un modelo que maneja cargas reales de agentes de programación en producción de forma más fiable que los modelos de propósito general de tamaño equivalente.
La integración nativa con el ecosistema de CLI de programación agéntica es operativamente significativa. Qwen3-Coder-Next fue diseñado específicamente para conectarse con Claude Code, Cline, Aider y herramientas similares — su formato de prompts, esquema de uso de herramientas y comportamiento multi-turno coinciden con los patrones que estas herramientas esperan. Para los equipos que cambian de agentes de programación basados en Claude o GPT a alternativas auto-alojadas, la fricción de integración es sustancialmente menor que partir de una base de propósito general y adaptarla.
La licencia Apache 2.0 combinada con el contexto de 256K y la economía de inferencia hace que Qwen3-Coder-Next sea particularmente atractivo para despliegue auto-alojado en producción. El contexto de 256K maneja el razonamiento sobre repositorios completos para la mayoría de las bases de código, y la licencia elimina la fricción común de despliegue comercial con alternativas con licencias restrictivas.
Fine-Tuning with Ertas
La arquitectura MoE de 3B de parámetros activos de Qwen3-Coder-Next la hace excepcionalmente eficiente para fine-tuning en Ertas Studio. El fine-tuning con QLoRA cabe cómodamente en una sola GPU de 24GB — el conteo de parámetros activos impulsa el cómputo en tiempo de entrenamiento, así que la huella total de 80B parámetros importa para la memoria pero no para el costo de entrenamiento por paso.
Para los conjuntos de datos de fine-tuning, Qwen3-Coder-Next se beneficia sustancialmente de datos de entrenamiento que incluyen trazas completas de programación agéntica — descripción de la tarea, planificación, ediciones de código, salidas de pruebas e iteraciones. Ertas Studio admite estos formatos multi-paso de forma nativa, incluyendo trazas de uso de herramientas de ejecuciones de Claude Code, Cline o Aider. Entrenar con los patrones de programación específicos de tu equipo y las convenciones de tu base de código produce un modelo especializado por dominio que supera a la base en tareas dentro de tu base de código por un margen sustancial.
Después del entrenamiento, Ertas Studio exporta al formato GGUF con preservación completa de la plantilla de chat de Qwen3-Coder-Next. La cuantización Q4_K_M es de aproximadamente 45GB — cabiendo en una sola GPU de 48GB o repartida entre dos GPUs de 24GB con paralelismo de modelo. A pesar del conteo total de 80B parámetros, la inferencia funciona aproximadamente a velocidades de clase 3B, haciendo el despliegue ajustado práctico para cargas de programación agéntica de alto rendimiento.
Use Cases
Los agentes de programación agénticos auto-alojados son el objetivo principal de Qwen3-Coder-Next. Los patrones de despliegue en producción incluyen generación autónoma de PRs para patrones de cambio rutinarios, programación en pareja con IA con comprensión específica de la base de código del equipo (mediante fine-tuning), revisión de código y generación de pruebas integradas con CI, y asistencia para refactorización a gran escala. La combinación de capacidad de programación de nivel frontera y economía de inferencia con bajo conteo de parámetros activos hace que el despliegue auto-alojado sea competitivo con alternativas basadas en API a volúmenes de solicitudes sustancialmente mayores de los que serían tratables de otra forma.
Para equipos que consideran alternativas auto-alojadas a Claude Code, modelos backend de Cursor o GitHub Copilot, Qwen3-Coder-Next es una de las opciones más atractivas de 2026. La licencia Apache 2.0 combinada con la economía de inferencia logra el punto de equilibrio en volúmenes de solicitudes más bajos de los que requieren alternativas MoE más grandes como Kimi K2.6 o DeepSeek V4, haciéndolo accesible para equipos más pequeños.
Los flujos de trabajo de razonamiento sobre bases de código completas se benefician del contexto de 256K. Las revisiones arquitectónicas, las auditorías de seguridad sobre una base de código completa, el análisis de impacto de actualizaciones de dependencias y la planificación de refactorizaciones grandes encajan dentro de la ventana de contexto de Qwen3-Coder-Next para la mayoría de las bases de código reales. Combinado con una retención efectiva de contexto mejor que los modelos ingenuos de contexto largo, esto permite patrones de razonamiento holístico de código que las alternativas con contexto más pequeño no pueden igualar.
Hardware Requirements
Qwen3-Coder-Next con cuantización Q4_K_M requiere aproximadamente 45GB de memoria (todos los pesos de expertos cargados). Una sola GPU de 48GB es el punto óptimo de despliegue, cabiendo tanto el modelo como un contexto razonable con margen para la caché KV. Alternativamente, una Mac Apple Silicon de 64GB+ (M2/M3/M4 Ultra Mac Studio) despliega el modelo mediante MLX con calidad completa.
A pesar del conteo total de 80B parámetros, la velocidad de inferencia está dominada por el conteo de 3B de parámetros activos — el rendimiento de generación funciona aproximadamente a velocidades de clase 3B en frameworks de inferencia estándar. Esto hace que Qwen3-Coder-Next sea práctico para despliegue en producción sensible a la latencia de maneras que las alternativas con 30B+ activos no serían.
Para fine-tuning en Ertas Studio: Qwen3-Coder-Next con QLoRA necesita aproximadamente 22-30GB de VRAM en longitudes de secuencia típicas gracias al conteo de 3B de parámetros activos. El fine-tuning de contexto largo (secuencias de 32K-64K) es tratable en GPUs de 48GB con gradient checkpointing — sustancialmente más accesible que el fine-tuning de modelos de calidad equivalente con la misma capacidad efectiva de programación.
Supported Quantizations
Related Resources
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.