OpenClaw + Ertas
Reemplaza el backend de API en la nube predeterminado de OpenClaw con modelos ajustados desplegados a través de Ollama para inferencia sin costo, mejor precisión específica de dominio y privacidad total de datos.
Overview
OpenClaw es un agente de IA autónomo de código abierto que se conecta a plataformas de mensajería (WhatsApp, Telegram, Slack, Discord, Teams) y puede ejecutar tareas mediante modelos de lenguaje grandes — desde triaje de correos y gestión de archivos hasta automatización de navegador y comandos de shell. Con más de 180,000 estrellas en GitHub, se ha convertido en el framework de agente de IA personal más popular.
Por defecto, OpenClaw enruta la inferencia a través de APIs en la nube como OpenAI y Anthropic, lo que significa costos por token en cada interacción y datos sensibles saliendo de tu infraestructura. Ertas resuelve ambos problemas: ajusta un modelo específico de dominio con tus datos, expórtalo como GGUF, despliégalo vía Ollama y apunta OpenClaw al endpoint local. El resultado es un agente de IA que entiende tus flujos de trabajo específicos, no cuesta nada por interacción y mantiene todos los datos en tu máquina.
How Ertas Integrates
OpenClaw soporta cualquier modelo servido a través de una API compatible con OpenAI, lo que incluye Ollama — el destino de despliegue local recomendado para modelos entrenados con Ertas. Después de ajustar en Ertas Studio, descarga tu modelo en formato GGUF con el Modelfile correspondiente. Regístralo con Ollama usando un solo comando CLI, luego actualiza la configuración models.providers de OpenClaw para apuntar a tu endpoint local de Ollama.
Para agencias que ejecutan despliegues de OpenClaw por cliente, Ertas habilita una arquitectura particularmente eficiente: ajusta adaptadores LoRA por cliente (50-200MB cada uno) sobre un modelo base compartido. La instancia de OpenClaw de cada cliente se conecta al mismo servidor Ollama pero carga un adaptador diferente en el momento de la inferencia. Esto elimina por completo los costos de API por cliente mientras ofrece mejor precisión específica de dominio que los modelos genéricos en la nube. Ertas Cloud puede gestionar el ciclo de vida completo — entrenamiento, versionado de adaptadores, monitoreo de despliegue y pruebas A/B entre versiones de modelos.
Getting Started
- 1
Ajusta un modelo para tus flujos de trabajo de OpenClaw
Sube datos de entrenamiento de tus casos de uso de OpenClaw (ejemplos de triaje de correo, conversaciones de soporte, plantillas de reportes) a Ertas Studio. Selecciona un modelo base optimizado para tareas de agente (se recomienda Llama 3.3 8B o Qwen 2.5 7B) y lanza una ejecución de fine-tuning con LoRA.
- 2
Exporta como GGUF
Descarga el modelo ajustado en formato GGUF con tu nivel de cuantización preferido. Se recomienda Q5_K_M para tareas de agente de OpenClaw — equilibra calidad y velocidad para flujos de trabajo de razonamiento de múltiples pasos.
- 3
Despliega vía Ollama
Usa el Modelfile generado por Ertas para registrar tu modelo con Ollama en un solo comando. El Modelfile incluye la plantilla de chat correcta, el prompt de sistema y los parámetros de runtime.
- 4
Configura el proveedor de modelo de OpenClaw
Actualiza la configuración models.providers de OpenClaw para usar tu endpoint local de Ollama en http://127.0.0.1:11434/v1. Establece tu modelo ajustado como predeterminado para todas las tareas, o configura enrutamiento específico por tarea.
- 5
Prueba e itera
Ejecuta tus flujos de trabajo estándar de OpenClaw a través del modelo ajustado. Recopila casos donde la precisión sea insuficiente, agrégalos a tu dataset de entrenamiento y vuelve a ajustar para la siguiente iteración.
// openclaw.json — configure local fine-tuned model
{
"models": {
"providers": [
{
"name": "ertas-local",
"api": "openai-completions",
"baseUrl": "http://127.0.0.1:11434/v1",
"models": ["my-finetuned-model"]
}
]
}
}
// Deploy your Ertas-trained model with Ollama:
// ollama create my-finetuned-model -f ./Modelfile
// ollama run my-finetuned-model "Test prompt"Benefits
- Cero costo de inferencia por token — todas las interacciones de OpenClaw se ejecutan localmente
- Mejor precisión en tareas de agente específicas de dominio que los modelos genéricos en la nube
- Privacidad total de datos — archivos, correos y prompts nunca salen de tu infraestructura
- Adaptadores LoRA por cliente para agencias que ejecutan despliegues multi-tenant de OpenClaw
- Elimina la gestión de claves API y los riesgos de seguridad asociados
- Compatible con el conjunto completo de funciones de OpenClaw incluyendo trabajos cron y monitoreo de heartbeat
Related Resources
Adapter
Fine-Tuning
GGUF
Inference
LoRA
How to Power OpenClaw with Fine-Tuned Local Models (No API Costs)
OpenClaw Security: Why Running Your Own Models Is the Only Real Fix
OpenClaw for Agencies: Per-Client AI Agents Without the API Bill
OpenClaw + Fine-Tuned Models vs. OpenClaw + GPT-4: A Practical Comparison
HIPAA, GDPR, and OpenClaw: A Compliance Guide for Regulated Industries
Extending OpenClaw with Custom Skills Powered by Fine-Tuned Models
Open-Source Models for OpenClaw: Llama 3, Qwen 2.5, and Which to Fine-Tune
Running AI Models Locally: The Complete Guide to Local LLM Inference
How to Cut Your AI Agency Costs by 90% with Fine-Tuned Local Models
llama.cpp
LM Studio
n8n
Ollama
vLLM
Ertas for Healthcare
Ertas for Customer Support
Ertas for Legal
Ertas for AI Automation Agencies
Ertas for Indie Developers & Vibe-Coded Apps
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.