
Seguridad en OpenClaw: Por Que Ejecutar Tus Propios Modelos Es la Unica Solucion Real
La crisis de seguridad de OpenClaw va mas alla de los CVEs. La verdadera vulnerabilidad es enviar todo a traves de APIs en la nube. Los modelos locales eliminan la mayor superficie de ataque.
OpenClaw esta en medio de una crisis de seguridad, y la mayor parte de la cobertura se esta enfocando en el problema equivocado.
Si, CVE-2026-25253 es grave — una cadena de ejecucion remota de codigo con un solo clic y una puntuacion CVSS de 8.8. Si, el ataque a la cadena de suministro de ClawHub es alarmante — mas de 800 skills maliciosos identificados, aproximadamente el 20% del registro completo. Si, mas de 30,000 instancias expuestas a internet sin autenticacion es malo.
Pero estos son sintomas. La vulnerabilidad subyacente es arquitectonica: OpenClaw esta disenado para leer tus archivos, acceder a tu correo, navegar la web y ejecutar comandos de terminal — y por defecto, envia cada pieza de contexto a traves de una API en la nube para hacerlo.
Esa es la superficie de ataque que nadie esta parcheando.
El Problema del Flujo de Datos
Cuando OpenClaw se ejecuta con un backend de API en la nube (la configuracion por defecto), esto es lo que sucede con cada interaccion:
- Le pides a OpenClaw que resuma tus correos. El contenido de tus correos se envia a los servidores de OpenAI/Anthropic como contexto del prompt.
- Le pides que revise un contrato. El texto completo del contrato se transmite a una API de terceros.
- Le pides que revise logs del servidor. Los detalles de tu infraestructura, direcciones IP y mensajes de error salen de tu red.
- Le pides que redacte una propuesta para un cliente. Tu precio, estrategia y detalles del cliente se convierten en entrada de la API.
Cada archivo que OpenClaw lee, cada salida de comando que procesa, cada pagina del navegador que renderiza — todo fluye a traves de un endpoint en la nube como entrada de tokens. Esto no es un error. Es la arquitectura prevista.
El analisis de CrowdStrike lo dejo claro: los amplios permisos de OpenClaw, combinados con el enrutamiento de API en la nube, crean un escenario donde "si los empleados despliegan OpenClaw en maquinas corporativas y lo conectan a sistemas empresariales mientras lo dejan mal configurado y sin seguridad, podria convertirse en un poderoso agente de puerta trasera de IA."
Meta prohibio OpenClaw de sus redes corporativas. El blog de Cisco llamo a los agentes personales de IA como OpenClaw "una pesadilla de seguridad." Kaspersky marco la herramienta como insegura. Estas no son reacciones exageradas.
Por Que Parchear CVEs No Es Suficiente
La comunidad de seguridad se esta enfocando en tres vectores:
1. La vulnerabilidad RCE (CVE-2026-25253). Esta se parcheara. Pero el proximo RCE llegara eventualmente — la superficie de ataque de OpenClaw es enorme por diseno. Un agente que puede ejecutar comandos de terminal arbitrarios, gestionar archivos y controlar un navegador siempre sera un objetivo de alto valor.
2. Skills maliciosos de ClawHub. Los mas de 800 skills envenenados (que distribuian el Atomic macOS Stealer) expusieron un problema fundamental con los registros de skills de la comunidad. Auditar extensiones open-source a escala es un problema sin resolver. El equipo de ClawHub puede mejorar los procesos de revision, pero los atacantes determinados siempre encontraran formas de filtrarse.
3. Instancias expuestas. Los mas de 30,000 despliegues de OpenClaw expuestos a internet son un problema de configuracion. El endurecimiento de puertos y la autenticacion reducirian este numero, pero el error humano garantiza que algunas instancias siempre estaran expuestas.
Ninguna de estas correcciones aborda el problema central: incluso una instancia de OpenClaw perfectamente asegurada sigue enviando tus datos a APIs en la nube por defecto.
Modelos Locales: Eliminando la Mayor Superficie de Ataque
Ejecutar OpenClaw con modelos locales elimina el vector de exfiltracion de datos por completo:
| Riesgo | API en la Nube | Modelo Local |
|---|---|---|
| Datos enviados a terceros | Cada prompt, cada archivo, cada contexto | Nada — la inferencia se ejecuta en tu hardware |
| Exposicion de claves API | Claves almacenadas en config, filtradas en logs, robadas via inyeccion de prompts | Sin claves API que filtrar |
| Retencion de datos del proveedor | Sujeto a la politica de manejo de datos del proveedor | Tu controlas la retencion |
| Interceptacion de red | Tokens en transito a endpoints de API | Sin trafico de red para inferencia |
| Inyeccion de prompt hacia robo de datos | Prompts manipulados por atacantes pueden exfiltrar contexto via llamadas API | Sin endpoint externo al cual exfiltrar |
Esto no es una mejora marginal. Elimina toda una clase de ataques.
La Inyeccion de Prompts Se Vuelve Menos Peligrosa
Uno de los riesgos mas citados de OpenClaw es la inyeccion de prompts: un sitio web, correo o documento malicioso podria contener instrucciones ocultas que enganen a OpenClaw para ejecutar acciones daninas. Con un backend de API en la nube, una inyeccion de prompt exitosa puede exfiltrar datos codificandolos en llamadas API. Con un modelo local, no hay endpoint externo al que la instruccion inyectada pueda reportarse.
La inyeccion de prompts sigue siendo un riesgo con modelos locales — una instruccion inyectada aun podria disparar acciones locales daninas. Pero el vector de exfiltracion de datos desaparece.
Las Claves API Ya No Son un Objetivo
La configuracion por defecto de OpenClaw requiere almacenar claves API en archivos de configuracion. Estas claves se han encontrado en logs en texto plano, expuestas a traves de instancias sin seguridad, y robadas via ataques de inyeccion de prompts. Cuando ejecutas modelos locales, no hay claves API que robar. La credencial de mayor valor en la mayoria de los despliegues de OpenClaw simplemente no existe.
Y la Calidad del Modelo?
La objecion comun: "Los modelos locales no son tan buenos como GPT-4." Esto es cierto para tareas de proposito general. Es falso para trabajo de agente especifico del dominio.
Las tareas que OpenClaw realiza repetidamente — triaje de correos, resumen de documentos, extraccion de datos, generacion de reportes — son exactamente las tareas donde los modelos pequenos ajustados igualan o superan a los modelos de frontera:
- Categorizacion de tareas B2B: 94% de precision con un modelo ajustado de 7B vs. 71% con GPT-4 usando prompt engineering
- Resolucion de tickets de soporte: 87% de auto-resolucion con modelo ajustado vs. 34% con chatbot mejorado con RAG
- Deteccion de clausulas legales: 90% de precision con modelo ajustado en contratos especificos del dominio
Para las tareas estrechas y repetibles que componen el 80%+ del uso de OpenClaw, los modelos locales ajustados no son un compromiso — son una mejora.
Una Arquitectura de Seguridad Practica para OpenClaw
Asi es como desplegar OpenClaw con una postura de seguridad defendible:
1. Modelo Local como Backend Principal
Despliega un modelo ajustado via Ollama en la misma maquina o red local que OpenClaw. Todas las tareas rutinarias se enrutan a traves de este modelo. Ningun dato sale de tu infraestructura.
{
"models": {
"providers": [
{
"name": "local-secure",
"api": "openai-completions",
"baseUrl": "http://127.0.0.1:11434/v1",
"models": ["my-finetuned-model"]
}
]
}
}
2. Respaldo en la Nube con Filtrado de Datos (Opcional)
Si necesitas acceso a una API en la nube para casos extremos, enruta solo consultas no sensibles al backend en la nube. Nunca envies documentos, correos o datos propietarios a traves de APIs en la nube.
3. Deshabilita o Audita los Skills de ClawHub
No instales skills de la comunidad de ClawHub sin revisar el codigo fuente. En su lugar, construye tus propios skills respaldados por tu modelo ajustado — esto evita el riesgo de cadena de suministro por completo.
4. Aislamiento de Red
Ejecuta OpenClaw en una maquina que no pueda acceder a internet excepto a traves de canales controlados. La inferencia de modelos locales no requiere ningun acceso de red saliente.
5. Ajusta para Conciencia de Seguridad
Incluye ejemplos relevantes de seguridad en tu dataset de fine-tuning:
- Ejemplos de intentos de inyeccion de prompts con respuestas correctas de rechazo
- Patrones que deberian disparar confirmacion antes de la ejecucion (eliminacion de archivos, comandos del sistema, acceso a credenciales)
- Aplicacion de limites sobre que tipos de datos el modelo debe y no debe procesar
Ship AI that runs on your users' devices.
Ertas early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
El Caso Empresarial
Para organizaciones que evaluan OpenClaw para uso interno, el calculo de seguridad es directo:
- Con APIs en la nube: Cada interaccion transmite datos internos a infraestructura de terceros. Cada clave API es un objetivo de alto valor. Cada vulnerabilidad en OpenClaw es un potencial vector de brecha de datos.
- Con modelos locales: La inferencia esta aislada de servicios externos. Sin credenciales que robar. El radio de impacto de cualquier vulnerabilidad se limita a la maquina local.
Los equipos de seguridad de Meta, Cisco y CrowdStrike tienen razon en senalar los riesgos de OpenClaw. Pero la solucion no es prohibir la herramienta — es eliminar el flujo de datos que la hace peligrosa.
Ejecuta tus propios modelos. Manten tus datos locales. Esa es la solucion que los parches de CVE nunca van a ofrecer.
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Keep reading

HIPAA, GDPR, and OpenClaw: A Compliance Guide for Regulated Industries
OpenClaw in healthcare, legal, or finance is a compliance minefield when using cloud APIs. Here's how to map the data flows, identify risks, and deploy compliantly with local models.

Privacy-Conscious AI Development: Fine-Tune in the Cloud, Run on Your Terms
How Ertas balances the convenience of cloud fine-tuning with the privacy of local deployment — giving you control over your data where it matters most.

How to Power OpenClaw with Fine-Tuned Local Models (No API Costs)
OpenClaw defaults to cloud APIs that charge per token. Here's how to run it on fine-tuned local models via Ollama for better domain performance and zero marginal inference cost.