Fine-Tune MiniMax M2.5 with Ertas
El modelo de programación insignia de MiniMax — actual líder en SWE-Bench Verified con 80,2% entre los modelos open-weight, diseñado para cargas de trabajo de programación agéntica. El sucesor M2.7 continúa extendiendo la línea.
Overview
MiniMax M2.5 es el actual líder en SWE-Bench Verified entre los modelos open-weight con un 80,2% — una de las señales más sólidas disponibles de que un modelo open-weight puede igualar o superar alternativas propietarias en tareas reales de ingeniería de software. El modelo utiliza una arquitectura grande de mezcla de expertos con aproximadamente 45B de parámetros activos, lo que le otorga una sólida economía de inferencia en relación con su conteo total de parámetros mientras entrega una capacidad de programación que compite con modelos propietarios de frontera.
MiniMax ha publicado el modelo con un enfoque en cargas de trabajo de programación agéntica — patrones de tareas como implementación de funcionalidades de extremo a extremo, refactorización multi-archivo y navegación de bases de código. El pipeline de entrenamiento enfatiza recompensas verificables de ejecución de código, similar a la metodología de post-entrenamiento que distinguió a Qwen3-Coder y MiMo V2.5 Pro. El resultado es un modelo que maneja tareas reales de ingeniería de software sustancialmente mejor que modelos de propósito general de tamaño equivalente.
El lanzamiento de M2.5 fue seguido por M2.7, que continúa extendiendo la posición de liderazgo en SWE-Bench. Para equipos que auto-alojan agentes de programación agéntica, MiniMax M2.5 (o el sucesor M2.7) es una de las opciones open-weight más atractivas disponibles — combinando rendimiento de benchmark de frontera con licencia comercial-permisiva y sólida economía de inferencia.
Los pesos están disponibles en Hugging Face bajo la organización de MiniMax. La licencia es comercial-permisiva con términos similares a las licencias estilo Apache 2.0 / MIT utilizadas por otros lanzamientos open-weight de laboratorios chinos.
Key Features
El liderazgo en SWE-Bench Verified con 80,2% es el resultado de benchmark definitorio de M2.5. SWE-Bench Verified evalúa modelos en tareas reales de ingeniería de software extraídas de repositorios open-source — cerrar issues de GitHub que requieren cambios multi-archivo, iteración guiada por pruebas y comprensión de código a través de una base de código existente. La puntuación de M2.5 lo coloca por delante de otros modelos open-weight, incluido MiMo V2.5 Pro, en este benchmark específico.
El enfoque de entrenamiento en programación agéntica produce una fiabilidad en el mundo real que los benchmarks sintéticos por sí solos no capturan. M2.5 maneja tareas de programación multi-paso con sólida fidelidad en el uso de herramientas, adherencia a salidas estructuradas y previsibilidad operativa — lo que lo hace adecuado para despliegue en producción en frameworks agénticos como LangGraph, CrewAI o CLIs especializadas de programación.
La arquitectura MoE con 45B de parámetros activos otorga a M2.5 una economía de inferencia favorable. El rendimiento de generación de tokens en frameworks estándar funciona a velocidades de clase 45B aproximadamente, dentro del rango operativo de hardware de servidor de gama media. Para despliegues de programación agéntica de alto rendimiento donde los costos de API son prohibitivos, la economía auto-alojada de M2.5 es competitiva con la mayoría de los escenarios de producción.
M2.5 forma parte de una cadencia activa de lanzamientos — M2.7 es el sucesor inmediato con mejoras continuas en benchmarks. Para equipos que eligen MiniMax para despliegue en producción, la trayectoria activa de desarrollo proporciona confianza en la mejora continua de capacidades a lo largo del tiempo.
Fine-Tuning with Ertas
El fine-tuning de MiniMax M2.5 en Ertas Studio requiere configuraciones de servidor multi-GPU para QLoRA a la escala completa del modelo. Se necesitan aproximadamente 280-340GB de VRAM total con longitudes de secuencia típicas, lo que cabe en un servidor 8x A100 80GB o equivalente.
Para la mayoría de los equipos sin esa infraestructura, el patrón recomendado es la destilación profesor-estudiante: usar M2.5 como profesor para generar datos sintéticos de entrenamiento de programación agéntica, luego ajustar un modelo base más pequeño (Qwen 32B, Qwen3-Coder-30B-A3B o Llama 70B) sobre esos datos. Esto produce un modelo de programación especializado por dominio con costo de despliegue de una sola GPU mientras hereda los patrones de programación de M2.5.
Para los conjuntos de datos de fine-tuning, M2.5 se beneficia sustancialmente de datos de entrenamiento con trazas completas de programación agéntica — descripción de la tarea, planificación, ediciones de código, salidas de pruebas e iteraciones. Ertas Studio admite estos formatos multi-paso de forma nativa, incluyendo trazas de uso de herramientas de ejecuciones de agentes CLI.
Después del entrenamiento, Ertas Studio exporta a GGUF (o formatos nativos de vLLM para mayor rendimiento). La cuantización Q4_K_M del modelo M2.5 completo es grande — territorio de despliegue de servidor multi-GPU — pero los fine-tunes destilados sobre bases más pequeñas se exportan en tamaños estándar 7B-70B para despliegue normal en una sola GPU.
Use Cases
La programación agéntica es el objetivo principal de M2.5. Los patrones de despliegue en producción incluyen generación autónoma de PRs, asistencia para refactorización a gran escala, programación en pareja con IA para bases de código empresariales y agentes de revisión de código integrados con CI. El liderazgo en SWE-Bench Verified combinado con una sólida economía de inferencia hace que M2.5 sea particularmente atractivo para equipos que auto-alojan agentes de programación para evitar costos de API a alto volumen.
Para equipos que consideran alternativas auto-alojadas a Claude Code, modelos backend de Cursor o GitHub Copilot, MiniMax M2.5 es una de las opciones más sólidas. La combinación de rendimiento de benchmark de frontera, licencia comercial-permisiva y cadencia activa de lanzamientos lo convierte en una opción creíble a largo plazo en lugar de una solución temporal.
Los flujos de trabajo de ingeniería multi-paso — migraciones de bases de código, actualizaciones de dependencias, remediación de auditorías de seguridad — se benefician sustancialmente de la combinación de M2.5 de fuerte capacidad de programación y ejecución agéntica fiable. El entrenamiento del modelo en recompensas verificables de ejecución de código se traduce en una fiabilidad en el mundo real mejor que la de modelos de propósito general en estos tipos de tareas.
Hardware Requirements
MiniMax M2.5 con cuantización Q4_K_M requiere aproximadamente 250GB de memoria, cabiendo en un servidor 4x A100 80GB o 4x H100 80GB, o un host de inferencia en CPU con 384GB+ de RAM. El conteo de parámetros activos de 45B determina el rendimiento de generación de tokens una vez cargado.
Para despliegues más pequeños, la cuantización Q3_K_M (aproximadamente 190GB) intercambia una calidad modesta por memoria reducida, cabiendo en una configuración 2x H100 80GB o 3x A100 80GB. Por debajo de Q3 no se recomienda para agentes de programación en producción — la degradación de calidad en razonamiento multi-paso se vuelve perceptible.
Para fine-tuning en Ertas Studio: M2.5 con QLoRA necesita aproximadamente 280-340GB de VRAM total (servidor multi-GPU). Para equipos sin esa escala, la destilación sobre Qwen3-Coder-30B-A3B (GPU de 24GB), Qwen 32B (GPU de 40GB) o Llama 70B (GPU de 48GB) usando M2.5 como profesor entrega agentes de programación especializados por dominio con un costo de fine-tuning sustancialmente menor.
Supported Quantizations
Related Resources
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.