OpenClaw + Ertas

    Reemplaza el backend de API en la nube predeterminado de OpenClaw con modelos ajustados desplegados a través de Ollama para inferencia sin costo, mejor precisión específica de dominio y privacidad total de datos.

    Overview

    OpenClaw es un agente de IA autónomo de código abierto que se conecta a plataformas de mensajería (WhatsApp, Telegram, Slack, Discord, Teams) y puede ejecutar tareas mediante modelos de lenguaje grandes — desde triaje de correos y gestión de archivos hasta automatización de navegador y comandos de shell. Con más de 180,000 estrellas en GitHub, se ha convertido en el framework de agente de IA personal más popular.

    Por defecto, OpenClaw enruta la inferencia a través de APIs en la nube como OpenAI y Anthropic, lo que significa costos por token en cada interacción y datos sensibles saliendo de tu infraestructura. Ertas resuelve ambos problemas: ajusta un modelo específico de dominio con tus datos, expórtalo como GGUF, despliégalo vía Ollama y apunta OpenClaw al endpoint local. El resultado es un agente de IA que entiende tus flujos de trabajo específicos, no cuesta nada por interacción y mantiene todos los datos en tu máquina.

    How Ertas Integrates

    OpenClaw soporta cualquier modelo servido a través de una API compatible con OpenAI, lo que incluye Ollama — el destino de despliegue local recomendado para modelos entrenados con Ertas. Después de ajustar en Ertas Studio, descarga tu modelo en formato GGUF con el Modelfile correspondiente. Regístralo con Ollama usando un solo comando CLI, luego actualiza la configuración models.providers de OpenClaw para apuntar a tu endpoint local de Ollama.

    Para agencias que ejecutan despliegues de OpenClaw por cliente, Ertas habilita una arquitectura particularmente eficiente: ajusta adaptadores LoRA por cliente (50-200MB cada uno) sobre un modelo base compartido. La instancia de OpenClaw de cada cliente se conecta al mismo servidor Ollama pero carga un adaptador diferente en el momento de la inferencia. Esto elimina por completo los costos de API por cliente mientras ofrece mejor precisión específica de dominio que los modelos genéricos en la nube. Ertas Cloud puede gestionar el ciclo de vida completo — entrenamiento, versionado de adaptadores, monitoreo de despliegue y pruebas A/B entre versiones de modelos.

    Getting Started

    1. 1

      Ajusta un modelo para tus flujos de trabajo de OpenClaw

      Sube datos de entrenamiento de tus casos de uso de OpenClaw (ejemplos de triaje de correo, conversaciones de soporte, plantillas de reportes) a Ertas Studio. Selecciona un modelo base optimizado para tareas de agente (se recomienda Llama 3.3 8B o Qwen 2.5 7B) y lanza una ejecución de fine-tuning con LoRA.

    2. 2

      Exporta como GGUF

      Descarga el modelo ajustado en formato GGUF con tu nivel de cuantización preferido. Se recomienda Q5_K_M para tareas de agente de OpenClaw — equilibra calidad y velocidad para flujos de trabajo de razonamiento de múltiples pasos.

    3. 3

      Despliega vía Ollama

      Usa el Modelfile generado por Ertas para registrar tu modelo con Ollama en un solo comando. El Modelfile incluye la plantilla de chat correcta, el prompt de sistema y los parámetros de runtime.

    4. 4

      Configura el proveedor de modelo de OpenClaw

      Actualiza la configuración models.providers de OpenClaw para usar tu endpoint local de Ollama en http://127.0.0.1:11434/v1. Establece tu modelo ajustado como predeterminado para todas las tareas, o configura enrutamiento específico por tarea.

    5. 5

      Prueba e itera

      Ejecuta tus flujos de trabajo estándar de OpenClaw a través del modelo ajustado. Recopila casos donde la precisión sea insuficiente, agrégalos a tu dataset de entrenamiento y vuelve a ajustar para la siguiente iteración.

    json
    // openclaw.json — configure local fine-tuned model
    {
      "models": {
        "providers": [
          {
            "name": "ertas-local",
            "api": "openai-completions",
            "baseUrl": "http://127.0.0.1:11434/v1",
            "models": ["my-finetuned-model"]
          }
        ]
      }
    }
    
    // Deploy your Ertas-trained model with Ollama:
    // ollama create my-finetuned-model -f ./Modelfile
    // ollama run my-finetuned-model "Test prompt"
    Configura OpenClaw para usar tu modelo ajustado con Ertas servido localmente a través de Ollama — cero costos de API, privacidad total de datos.

    Benefits

    • Cero costo de inferencia por token — todas las interacciones de OpenClaw se ejecutan localmente
    • Mejor precisión en tareas de agente específicas de dominio que los modelos genéricos en la nube
    • Privacidad total de datos — archivos, correos y prompts nunca salen de tu infraestructura
    • Adaptadores LoRA por cliente para agencias que ejecutan despliegues multi-tenant de OpenClaw
    • Elimina la gestión de claves API y los riesgos de seguridad asociados
    • Compatible con el conjunto completo de funciones de OpenClaw incluyendo trabajos cron y monitoreo de heartbeat

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.