Back to blog
    Ertas vs Modal Labs: ¿Cuál Es Mejor para Agencias que Ajustan Modelos de Clientes?
    ertasmodal-labscomparisonagencyfine-tuninggpu

    Ertas vs Modal Labs: ¿Cuál Es Mejor para Agencias que Ajustan Modelos de Clientes?

    Comparando Ertas y Modal Labs para flujos de trabajo de fine-tuning en agencias de IA. Cubre la división GUI vs código, gestión multi-cliente, previsibilidad de costos y despliegue GGUF.

    EErtas Team·

    Modal Labs es lo que usas cuando quieres escribir decoradores de Python y obtener GPUs con auto-escalado. Ertas es lo que usas cuando quieres subir un CSV y hacer clic en Entrenar. Abordan la misma necesidad subyacente — cómputo GPU para fine-tuning — pero para usuarios completamente diferentes.

    Para agencias de IA específicamente, la elección importa más allá de la preferencia personal. La plataforma que elijas afecta la capacidad de tu equipo para incorporar miembros sin ML, administrar múltiples modelos de clientes, predecir costos mensuales y entregar archivos GGUF que los clientes puedan desplegar localmente.

    Qué Es Modal Labs

    Modal es infraestructura GPU serverless. La experiencia de desarrollo prioriza Python: escribes un script de entrenamiento, agregas decoradores de Modal, y Modal se encarga de iniciar instancias GPU, instalar dependencias, administrar almacenamiento y auto-escalar.

    Una configuración típica de fine-tuning con Modal se ve así:

    import modal
    
    app = modal.App("fine-tune-llm")
    image = modal.Image.debian_slim().pip_install("unsloth", "torch", "transformers")
    
    @app.function(gpu="A100", timeout=3600, image=image)
    def fine_tune(training_data_path: str):
        from unsloth import FastLanguageModel
        # tu código de entrenamiento aquí
        model, tokenizer = FastLanguageModel.from_pretrained(
            model_name="unsloth/llama-3-8b-instruct",
            max_seq_length=2048,
        )
        # ... bucle de entrenamiento ...
        model.save_pretrained("./output")
    
    @app.local_entrypoint()
    def main():
        fine_tune.remote("s3://your-bucket/train.jsonl")
    

    Esto es genuinamente poderoso. Obtienes acceso a A100 en minutos, tu código se ejecuta exactamente como está escrito, y pagas solo por lo que usas. Si eres un ingeniero de ML que quiere control total sobre el bucle de entrenamiento, Modal es excelente.

    Si no eres ingeniero de ML — o si necesitas que tu account manager no técnico ejecute trabajos de entrenamiento para el cliente X sin entender PyTorch — Modal no funciona.

    Qué Es Ertas

    Ertas es una plataforma visual de fine-tuning. El flujo de trabajo es: subir dataset JSONL → configurar entrenamiento en la UI → entrenar en GPUs en la nube → exportar GGUF → ejecutar localmente. Sin Python, sin YAML, sin necesidad de entender acumulación de gradientes.

    Para agencias específicamente, Ertas agrega proyectos etiquetados por cliente (los datasets y modelos de cada cliente están aislados), puestos de equipo (hasta 15 en Agency Pro), slots de trabajos concurrentes (hasta 8) y gestión de adaptadores LoRA por cliente.

    Tabla de Comparación

    DimensiónErtasModal Labs
    InterfazUI web visualCódigo Python
    Tiempo de configuración~2 min~60 min (entorno + código)
    Experiencia en ML requeridaNingunaSignificativa
    Acceso de equipoPuestos basados en roles (5 en Agency)Compartir clave API / acceso al código Python
    Gestión de proyectos de clientesIntegrada, etiquetada por clienteConstrúyelo tú mismo
    Exportación GGUFUn clicManual (convert.py de llama.cpp)
    Soporte de despliegue localSí (Ollama/LM Studio)No (tú te encargas)
    Modelo de costosSuscripción mensual, fijaPor segundo de GPU, variable
    Previsibilidad de costosAltaBaja (depende de duración del trabajo/tipo de GPU)
    Trabajos concurrentesHasta 8 (Agency Pro)Ilimitados (costoso)
    Bucles de entrenamiento personalizadosNoSí (Python completo)
    Seguimiento de experimentosLienzo visual, lado a ladoNinguno integrado (agregar Weights & Biases)
    Herramientas de datasetValidación, síntesis, evaluaciónTrae las tuyas
    Para quién esAgencias, constructores sin MLIngenieros de ML que quieren cómputo GPU

    La Perspectiva de la Agencia

    Las agencias tienen cinco requisitos que difieren de los ingenieros de ML individuales:

    1. Los miembros del equipo sin ML necesitan participar. Tu account manager necesita subir datos del cliente y ejecutar un re-entrenamiento. Tu project manager necesita ver los resultados del entrenamiento. Ninguno debería necesitar entender decoradores de Python o data collators de Hugging Face. Ertas funciona para ellos; Modal no.

    2. Los datos del cliente deben estar aislados. Cuando estás ajustando modelos para 8 clientes diferentes, mezclar sus datos en un entorno Python compartido es un riesgo serio. Ertas tiene proyectos etiquetados por cliente con aislamiento explícito. Modal tiene lo que tú construyas.

    3. Los costos necesitan ser predecibles. La facturación de agencias funciona con retainers fijos. Si tu costo subyacente para un mes de mantenimiento de modelos varía de $40 a $400 dependiendo de cuántos trabajos se ejecutaron, la planificación de márgenes se vuelve imposible. Ertas Agency a $69.50/mes es fijo. La facturación por segundo de Modal no lo es.

    4. Generalmente se requiere salida GGUF. La mayoría de los clientes de agencias quieren ejecutar el modelo en su propia infraestructura, no pagar costos de API indefinidamente. La exportación GGUF con un clic en Ertas vs la conversión manual desde checkpoints de Modal es una diferencia operativa significativa.

    5. Múltiples trabajos concurrentes. Cuando tienes 10 clientes con calendarios de re-entrenamiento escalonados, necesitas ejecutar trabajos simultáneamente. Ertas Agency soporta 3 trabajos concurrentes (Agency Pro: 8). Modal soporta concurrencia ilimitada — pero tú construyes la gestión de colas.

    Las Matemáticas de Costos para una Agencia

    Escenario: una pequeña agencia de IA administrando 8 clientes activos, cada uno requiriendo 1-2 ejecuciones de entrenamiento por mes más evaluación.

    Estimación de costos de Modal Labs:

    • 8 clientes x 1.5 entrenamientos x ~90 minutos en A100 = ~18 horas-GPU/mes
    • A100 en Modal: ~$3/hora
    • Total de cómputo: ~$54/mes
    • Más: tiempo de desarrollador para escribir y mantener scripts de entrenamiento (continuo)
    • Más: construir gestión de proyectos, herramientas de evaluación, scripts de conversión GGUF

    Costo de Ertas Agency:

    • $69.50/mes (Early Bird)
    • Incluye 400 créditos (cubre cómodamente 8 clientes x 1.5 ejecuciones)
    • Gestión de proyectos, evaluación, exportación GGUF incluidas
    • Miembros del equipo sin ML pueden operarlo

    En costo bruto de cómputo, Modal podría ser más barato. Pero el costo total de propiedad — incluyendo tiempo de desarrollador para construir y mantener la infraestructura de entrenamiento — cambia la comparación significativamente.

    Categoría de CostoModal LabsErtas Agency
    Plataforma/cómputo mensual~$40-80$69.50 (fijo)
    Horas de desarrollo/mes para mantener3-5 hrs @ $75/hr0
    Capa de gestión de proyectosConstrúyelo túIncluido
    Herramientas de conversión GGUFConstrúyelo túIncluido
    Acceso de puestos de equipoSolo clave API5 puestos
    Costo mensual efectivo total~$265-455$69.50

    Mismo Trabajo de Fine-Tuning: Lado a Lado

    Tarea: Ajustar Qwen 2.5 7B con 600 ejemplos de soporte al cliente para un cliente.

    Flujo de trabajo con Modal Labs:

    1. Escribir script de entrenamiento usando Unsloth + decoradores de Modal (~4 horas para el primer cliente, 1 hora para cada cliente subsiguiente con código reutilizable)
    2. Subir datos a S3 o volumen de Modal
    3. Ejecutar modal run train.py --data-path s3://...
    4. Esperar 45-90 minutos
    5. Descargar checkpoint del volumen de Modal
    6. Ejecutar convert.py de llama.cpp para exportar GGUF (~30 min incluyendo configuración)
    7. Probar GGUF con Ollama
    8. Total: 45-90 min entrenamiento + 2-3 horas configuración (primera vez) + 1 hora conversión GGUF

    Flujo de trabajo con Ertas:

    1. Subir JSONL en el navegador
    2. Seleccionar Qwen 2.5 7B del menú desplegable de modelos
    3. Configurar ajustes de entrenamiento visualmente
    4. Hacer clic en Entrenar
    5. Esperar 45-90 minutos (mismo tiempo de GPU subyacente)
    6. Revisar métricas de evaluación en la UI
    7. Hacer clic en Exportar GGUF
    8. Descargar y cargar en Ollama
    9. Total: 45-90 min entrenamiento + 15 minutos de trabajo activo

    Cuándo Gana Modal Labs

    • Tu equipo consiste en ingenieros de ML que quieren escribir bucles de entrenamiento personalizados
    • Necesitas arquitecturas exóticas (patrones de atención personalizados, multi-modal, etc.)
    • Quieres integrarte directamente con Weights & Biases u otras herramientas de ML
    • Tienes código PyTorch existente que quieres escalar
    • Estás haciendo investigación que requiere modificar el bucle de entrenamiento

    Cuándo Gana Ertas

    • Diriges una agencia con miembros del equipo sin ML
    • Necesitas aislamiento de datos de clientes y gestión de proyectos
    • Necesitas salida GGUF para despliegue local del cliente
    • Quieres costos mensuales predecibles para la facturación de la agencia
    • Necesitas 3+ trabajos concurrentes sin administrar una cola tú mismo
    • Quieres incorporar un nuevo cliente en 30 minutos, no en 3 horas

    Ship AI that runs on your users' devices.

    Ertas early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Lectura Adicional

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading