
Ertas vs Modal Labs: ¿Cuál Es Mejor para Agencias que Ajustan Modelos de Clientes?
Comparando Ertas y Modal Labs para flujos de trabajo de fine-tuning en agencias de IA. Cubre la división GUI vs código, gestión multi-cliente, previsibilidad de costos y despliegue GGUF.
Modal Labs es lo que usas cuando quieres escribir decoradores de Python y obtener GPUs con auto-escalado. Ertas es lo que usas cuando quieres subir un CSV y hacer clic en Entrenar. Abordan la misma necesidad subyacente — cómputo GPU para fine-tuning — pero para usuarios completamente diferentes.
Para agencias de IA específicamente, la elección importa más allá de la preferencia personal. La plataforma que elijas afecta la capacidad de tu equipo para incorporar miembros sin ML, administrar múltiples modelos de clientes, predecir costos mensuales y entregar archivos GGUF que los clientes puedan desplegar localmente.
Qué Es Modal Labs
Modal es infraestructura GPU serverless. La experiencia de desarrollo prioriza Python: escribes un script de entrenamiento, agregas decoradores de Modal, y Modal se encarga de iniciar instancias GPU, instalar dependencias, administrar almacenamiento y auto-escalar.
Una configuración típica de fine-tuning con Modal se ve así:
import modal
app = modal.App("fine-tune-llm")
image = modal.Image.debian_slim().pip_install("unsloth", "torch", "transformers")
@app.function(gpu="A100", timeout=3600, image=image)
def fine_tune(training_data_path: str):
from unsloth import FastLanguageModel
# tu código de entrenamiento aquí
model, tokenizer = FastLanguageModel.from_pretrained(
model_name="unsloth/llama-3-8b-instruct",
max_seq_length=2048,
)
# ... bucle de entrenamiento ...
model.save_pretrained("./output")
@app.local_entrypoint()
def main():
fine_tune.remote("s3://your-bucket/train.jsonl")
Esto es genuinamente poderoso. Obtienes acceso a A100 en minutos, tu código se ejecuta exactamente como está escrito, y pagas solo por lo que usas. Si eres un ingeniero de ML que quiere control total sobre el bucle de entrenamiento, Modal es excelente.
Si no eres ingeniero de ML — o si necesitas que tu account manager no técnico ejecute trabajos de entrenamiento para el cliente X sin entender PyTorch — Modal no funciona.
Qué Es Ertas
Ertas es una plataforma visual de fine-tuning. El flujo de trabajo es: subir dataset JSONL → configurar entrenamiento en la UI → entrenar en GPUs en la nube → exportar GGUF → ejecutar localmente. Sin Python, sin YAML, sin necesidad de entender acumulación de gradientes.
Para agencias específicamente, Ertas agrega proyectos etiquetados por cliente (los datasets y modelos de cada cliente están aislados), puestos de equipo (hasta 15 en Agency Pro), slots de trabajos concurrentes (hasta 8) y gestión de adaptadores LoRA por cliente.
Tabla de Comparación
| Dimensión | Ertas | Modal Labs |
|---|---|---|
| Interfaz | UI web visual | Código Python |
| Tiempo de configuración | ~2 min | ~60 min (entorno + código) |
| Experiencia en ML requerida | Ninguna | Significativa |
| Acceso de equipo | Puestos basados en roles (5 en Agency) | Compartir clave API / acceso al código Python |
| Gestión de proyectos de clientes | Integrada, etiquetada por cliente | Constrúyelo tú mismo |
| Exportación GGUF | Un clic | Manual (convert.py de llama.cpp) |
| Soporte de despliegue local | Sí (Ollama/LM Studio) | No (tú te encargas) |
| Modelo de costos | Suscripción mensual, fija | Por segundo de GPU, variable |
| Previsibilidad de costos | Alta | Baja (depende de duración del trabajo/tipo de GPU) |
| Trabajos concurrentes | Hasta 8 (Agency Pro) | Ilimitados (costoso) |
| Bucles de entrenamiento personalizados | No | Sí (Python completo) |
| Seguimiento de experimentos | Lienzo visual, lado a lado | Ninguno integrado (agregar Weights & Biases) |
| Herramientas de dataset | Validación, síntesis, evaluación | Trae las tuyas |
| Para quién es | Agencias, constructores sin ML | Ingenieros de ML que quieren cómputo GPU |
La Perspectiva de la Agencia
Las agencias tienen cinco requisitos que difieren de los ingenieros de ML individuales:
1. Los miembros del equipo sin ML necesitan participar. Tu account manager necesita subir datos del cliente y ejecutar un re-entrenamiento. Tu project manager necesita ver los resultados del entrenamiento. Ninguno debería necesitar entender decoradores de Python o data collators de Hugging Face. Ertas funciona para ellos; Modal no.
2. Los datos del cliente deben estar aislados. Cuando estás ajustando modelos para 8 clientes diferentes, mezclar sus datos en un entorno Python compartido es un riesgo serio. Ertas tiene proyectos etiquetados por cliente con aislamiento explícito. Modal tiene lo que tú construyas.
3. Los costos necesitan ser predecibles. La facturación de agencias funciona con retainers fijos. Si tu costo subyacente para un mes de mantenimiento de modelos varía de $40 a $400 dependiendo de cuántos trabajos se ejecutaron, la planificación de márgenes se vuelve imposible. Ertas Agency a $69.50/mes es fijo. La facturación por segundo de Modal no lo es.
4. Generalmente se requiere salida GGUF. La mayoría de los clientes de agencias quieren ejecutar el modelo en su propia infraestructura, no pagar costos de API indefinidamente. La exportación GGUF con un clic en Ertas vs la conversión manual desde checkpoints de Modal es una diferencia operativa significativa.
5. Múltiples trabajos concurrentes. Cuando tienes 10 clientes con calendarios de re-entrenamiento escalonados, necesitas ejecutar trabajos simultáneamente. Ertas Agency soporta 3 trabajos concurrentes (Agency Pro: 8). Modal soporta concurrencia ilimitada — pero tú construyes la gestión de colas.
Las Matemáticas de Costos para una Agencia
Escenario: una pequeña agencia de IA administrando 8 clientes activos, cada uno requiriendo 1-2 ejecuciones de entrenamiento por mes más evaluación.
Estimación de costos de Modal Labs:
- 8 clientes x 1.5 entrenamientos x ~90 minutos en A100 = ~18 horas-GPU/mes
- A100 en Modal: ~$3/hora
- Total de cómputo: ~$54/mes
- Más: tiempo de desarrollador para escribir y mantener scripts de entrenamiento (continuo)
- Más: construir gestión de proyectos, herramientas de evaluación, scripts de conversión GGUF
Costo de Ertas Agency:
- $69.50/mes (Early Bird)
- Incluye 400 créditos (cubre cómodamente 8 clientes x 1.5 ejecuciones)
- Gestión de proyectos, evaluación, exportación GGUF incluidas
- Miembros del equipo sin ML pueden operarlo
En costo bruto de cómputo, Modal podría ser más barato. Pero el costo total de propiedad — incluyendo tiempo de desarrollador para construir y mantener la infraestructura de entrenamiento — cambia la comparación significativamente.
| Categoría de Costo | Modal Labs | Ertas Agency |
|---|---|---|
| Plataforma/cómputo mensual | ~$40-80 | $69.50 (fijo) |
| Horas de desarrollo/mes para mantener | 3-5 hrs @ $75/hr | 0 |
| Capa de gestión de proyectos | Constrúyelo tú | Incluido |
| Herramientas de conversión GGUF | Constrúyelo tú | Incluido |
| Acceso de puestos de equipo | Solo clave API | 5 puestos |
| Costo mensual efectivo total | ~$265-455 | $69.50 |
Mismo Trabajo de Fine-Tuning: Lado a Lado
Tarea: Ajustar Qwen 2.5 7B con 600 ejemplos de soporte al cliente para un cliente.
Flujo de trabajo con Modal Labs:
- Escribir script de entrenamiento usando Unsloth + decoradores de Modal (~4 horas para el primer cliente, 1 hora para cada cliente subsiguiente con código reutilizable)
- Subir datos a S3 o volumen de Modal
- Ejecutar
modal run train.py --data-path s3://... - Esperar 45-90 minutos
- Descargar checkpoint del volumen de Modal
- Ejecutar convert.py de llama.cpp para exportar GGUF (~30 min incluyendo configuración)
- Probar GGUF con Ollama
- Total: 45-90 min entrenamiento + 2-3 horas configuración (primera vez) + 1 hora conversión GGUF
Flujo de trabajo con Ertas:
- Subir JSONL en el navegador
- Seleccionar Qwen 2.5 7B del menú desplegable de modelos
- Configurar ajustes de entrenamiento visualmente
- Hacer clic en Entrenar
- Esperar 45-90 minutos (mismo tiempo de GPU subyacente)
- Revisar métricas de evaluación en la UI
- Hacer clic en Exportar GGUF
- Descargar y cargar en Ollama
- Total: 45-90 min entrenamiento + 15 minutos de trabajo activo
Cuándo Gana Modal Labs
- Tu equipo consiste en ingenieros de ML que quieren escribir bucles de entrenamiento personalizados
- Necesitas arquitecturas exóticas (patrones de atención personalizados, multi-modal, etc.)
- Quieres integrarte directamente con Weights & Biases u otras herramientas de ML
- Tienes código PyTorch existente que quieres escalar
- Estás haciendo investigación que requiere modificar el bucle de entrenamiento
Cuándo Gana Ertas
- Diriges una agencia con miembros del equipo sin ML
- Necesitas aislamiento de datos de clientes y gestión de proyectos
- Necesitas salida GGUF para despliegue local del cliente
- Quieres costos mensuales predecibles para la facturación de la agencia
- Necesitas 3+ trabajos concurrentes sin administrar una cola tú mismo
- Quieres incorporar un nuevo cliente en 30 minutos, no en 3 horas
Ship AI that runs on your users' devices.
Ertas early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Lectura Adicional
- Mejores Plataformas de Fine-Tuning de IA en 2026 — Comparación completa multi-plataforma
- Plataforma de IA White-Label para Agencias — Entregando IA con marca propia a clientes de agencias
- Reducción de Costos de IA para Agencias — La economía de modelos ajustados para agencias
- Gestionar Múltiples Modelos Ajustados — Flujos de trabajo operativos para gestión de modelos multi-cliente
- Ertas vs Unsloth vs Axolotl 2026 — Cómo se compara Ertas con las herramientas DIY de fine-tuning
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Keep reading

Ertas vs Replicate for Fine-Tuning: Cost, Workflow, and GGUF Export Compared
Side-by-side comparison of Ertas and Replicate for fine-tuning language models. Covers workflow, pricing, GGUF export, data privacy, and when to choose each platform.

Ertas vs HuggingFace AutoTrain: Visual Fine-Tuning Without the YAML Configs
Comparing Ertas and HuggingFace AutoTrain for no-code LLM fine-tuning. Covers workflow UX, GGUF export, local deployment, pricing, and dataset format differences.

Ertas vs Together AI: Fine-Tuning Costs, Local Deployment, and Data Privacy
Comparing Ertas and Together AI for fine-tuning language models. Covers per-token vs flat-cost inference, data privacy, local deployment, and when each platform wins.