Back to blog
    Anthropic acaba de exponer el mayor problema en IA: no eres dueño de tus modelos
    model-ownershipdistillationvendor-lock-inai-strategydeepseekanthropic

    Anthropic acaba de exponer el mayor problema en IA: no eres dueño de tus modelos

    Anthropic detectó que DeepSeek, Moonshot y MiniMax usaron 24,000 cuentas para destilar a Claude. La verdadera lección no es sobre los laboratorios chinos de IA — es sobre lo que pasa cuando construyes sobre IA que no te pertenece.

    EErtas Team·

    El 23 de febrero de 2026, Anthropic publicó una entrada de blog que fue noticia en toda la industria tecnológica. La empresa había detectado lo que llamó "ataques de destilación a escala industrial" sobre Claude por parte de tres laboratorios chinos de IA: DeepSeek, Moonshot AI y MiniMax.

    Los números fueron asombrosos. Más de 24,000 cuentas fraudulentas. Más de 16 millones de intercambios con Claude. Tres campañas separadas, cada una dirigida a capacidades diferentes, ejecutándose simultáneamente en la plataforma de Anthropic.

    La mayoría de la cobertura enmarcó esto como una historia sobre empresas chinas robando a un laboratorio estadounidense de IA. Ese encuadre es incompleto. La historia más profunda es sobre un problema estructural que afecta a toda empresa que construye con IA hoy — incluyendo la tuya.

    Qué pasó realmente

    Estos son los hechos según los reportó Anthropic.

    DeepSeek generó más de 150,000 intercambios con Claude. Sus consultas apuntaron a tareas de razonamiento, calificación basada en rúbricas adecuada para entrenar modelos de recompensa de aprendizaje por refuerzo, y reescrituras libres de censura de contenido políticamente sensible. El patrón fue sistemático — diseñado para extraer capacidades específicas que podrían alimentarse directamente en su propio pipeline de entrenamiento.

    Moonshot AI (la empresa detrás de Kimi) fue más agresiva, acumulando más de 3.4 millones de intercambios. Su enfoque: razonamiento agéntico, uso de herramientas, programación, análisis de datos, agentes de uso de computadora y visión por computadora. Esencialmente, estaban extrayendo de Claude las capacidades que hacen útiles a los agentes de IA.

    MiniMax generó el mayor volumen — más de 13 millones de intercambios. A esa escala, la línea entre "uso intensivo" y "extracción sistemática" comienza a difuminarse, que es exactamente el problema.

    Las tres empresas canalizaron su actividad a través de redes de cuentas diseñadas para evitar la detección. El equipo de seguridad de Anthropic identificó las campañas a través de análisis de comportamiento, vinculando cuentas por patrones de uso, estructuras de consulta y tiempos de acceso.

    Qué es realmente la destilación

    Antes de continuar, vale la pena entender qué es la destilación de modelos — porque no es inherentemente maliciosa.

    La destilación es una técnica estándar de aprendizaje automático. Tomas un modelo "profesor" grande y usas sus salidas para entrenar un modelo "estudiante" más pequeño. El estudiante aprende a aproximar el comportamiento del profesor a una fracción del costo computacional. Fue descrita por primera vez en un artículo de 2015 por Geoffrey Hinton, y todos los laboratorios importantes de IA la usan internamente.

    OpenAI destila sus propios modelos para crear variantes más económicas. Anthropic hace lo mismo. Meta publicó Llama 3 específicamente para permitir que la comunidad open-source construyera sobre él — incluyendo a través de la destilación. La técnica es fundamental para cómo opera la industria de IA.

    La controversia no es la técnica. Es la fuente.

    El matiz que los medios están pasando por alto

    Aquí es donde la cobertura se pone interesante — y donde la mayoría de los medios se quedan cortos.

    Estas empresas pagaron por sus cuentas. Usaron la API. Recibieron salidas. Siguieron el proceso técnico que millones de otros clientes siguen cada día. La diferencia es lo que hicieron con esas salidas: las usaron como datos de entrenamiento para sus propios modelos.

    Lo que vale la pena notar es cómo los propios términos de Anthropic enmarcan esto. Por un lado, Anthropic asigna la propiedad de las salidas a los clientes — sus términos dicen: "te cedemos todo nuestro derecho, título e interés — si lo hubiera — en las Salidas." Pagas por la llamada API. Lo que regresa es tuyo. Por otro lado, la Política de Uso de Anthropic prohíbe explícitamente la "utilización de entradas y salidas para entrenar un modelo de IA" sin autorización previa. No solo modelos competidores — cualquier modelo de IA.

    La publicación de blog de Anthropic sobre el incidente fue moderada en su lenguaje. Reconocieron que la destilación es "un método de entrenamiento ampliamente usado y legítimo," y que los laboratorios frontera "rutinariamente destilan sus propios modelos." La violación, como la enmarcó Anthropic, fue contractual — una violación de los Términos de Servicio — no robo criminal, a pesar de cómo muchos titulares lo caracterizaron.

    Pero la línea entre "uso" y "destilación" es más borrosa de lo que sugieren los titulares. Considera la progresión:

    • Una empresa SaaS integra Claude para alimentar una función de soporte al cliente en su app. Eso es usar la API para su propósito previsto. Claramente permitido.
    • Esa misma empresa registra todas las respuestas de Claude para analizar patrones y mejorar su producto. Todavía es práctica estándar. Todavía permitido.
    • Esa misma empresa se da cuenta de que podría ajustar un modelo pequeño con esas salidas registradas para reducir latencia y recortar costos. Ahora técnicamente están violando la Política de Uso.

    En los tres casos, la empresa está haciendo lo mismo: usando salidas de API para su objetivo de negocio. No están construyendo un laboratorio de IA competidor. No están extrayendo capacidades frontera. Son solo un equipo SaaS intentando servir mejor a sus usuarios.

    Y esto no es un caso hipotético. Miles de equipos ahora mismo están usando salidas de API frontera para sintetizar datasets de entrenamiento — no para competir con Anthropic u OpenAI, sino para construir modelos ligeros para una tarea específica en su producto. Un clasificador. Un extractor. Un formateador.

    Los ToS no hacen distinción entre DeepSeek destilando sistemáticamente a Claude a escala industrial y una startup de cinco personas ajustando un modelo 7B con respuestas de API registradas. Ambos técnicamente requieren autorización previa. Pero solo uno fue noticia.

    Esta tensión revela algo que la industria no ha resuelto completamente: cuando vendes acceso API y asignas propiedad de las salidas, pero restringes cómo esas salidas propias pueden usarse para entrenamiento de IA, estás creando una relación con fricción inherente. Todo negocio que depende de APIs de IA debería entender dónde se encuentra esa fricción — porque la frontera entre "usar" y "entrenar con" salidas solo se vuelve más borrosa a medida que los productos impulsados por IA maduran.

    La verdadera lección: esto es lo que la dependencia de proveedores se ve a escala

    Elimina la geopolítica y las preguntas legales. ¿Qué pasó realmente aquí?

    Tres empresas — valoradas colectivamente en miles de millones de dólares, con miles de ingenieros — determinaron que el camino más rápido hacia las capacidades de IA que necesitaban era extraer esas capacidades de la plataforma de alguien más.

    No les faltaba talento. No les faltaba cómputo. No les faltaba ambición. Lo que les faltaba era propiedad de las capacidades específicas que querían. Así que fueron y las alquilaron — a escala industrial — de la API de Anthropic.

    Eso es dependencia de proveedor. Solo que la mayoría de los negocios la experimentan a menor escala.

    Cuando tu bot de soporte impulsado por IA depende completamente de la API de OpenAI, estás en la misma posición estructural que DeepSeek — solo con menos cuentas. No eres dueño del modelo. No controlas las capacidades. No puedes tomar la inteligencia que has construido y moverla a otro lugar.

    Y aquí está lo que lo hace peor: a diferencia de DeepSeek, probablemente no tienes un plan para lo que pasa cuando el acceso se revoca.

    Por qué esto importa para tu negocio

    Podrías estar pensando: "No estamos destilando modelos. Solo estamos usando la API. Esto no aplica para nosotros."

    Sí aplica. He aquí por qué.

    El mismo riesgo de dependencia existe a cualquier escala. Si tu producto depende de Claude o GPT-4, estás a un cambio de política de la disrupción. Anthropic baneó 24,000 cuentas de la noche a la mañana. OpenAI depreció GPT-4o con aproximadamente dos semanas de aviso. La API de Assistants — sobre la que miles de desarrolladores construyeron sistemas de producción — está siendo descontinuada. Estos no son hipotéticos. Son historia reciente.

    Tu posición competitiva es prestada, no construida. Si estás construyendo funcionalidades de IA sobre una API en la nube, tu diferenciación es tu ingeniería de prompts y tu flujo de trabajo — no tu modelo. Eso significa que cualquier competidor que se suscriba a la misma API puede aproximar lo que ofreces. Estás en la misma trampa del wrapper de GPT que ya está comoditizando a las agencias de IA.

    Tus costos son controlados por alguien más. El precio por token significa que tus gastos de IA son variables e impredecibles. Un pico de uso por una promoción de un cliente puede eliminar tus márgenes en una semana. Y cuando el proveedor decide subir precios — o depreciar el modelo para el que optimizaste — absorbes el costo de adaptación sin negociación.

    Tus datos fluyen a través de la infraestructura de alguien más. Cada llamada API envía tus datos — los datos de tus clientes — a un sistema de terceros. Para industrias reguladas, esto crea riesgo de cumplimiento que crece con cada nueva regulación. Para todos los demás, significa que estás entrenando los modelos de alguien más con tus patrones de uso, incluso si el proveedor dice que no usa tus datos para entrenamiento.

    Si tu negocio depende de IA que no te pertenece, ya estás en riesgo. Ajusta tus propios modelos con Ertas — no se requiere experiencia en ML. Únete a la lista de espera →

    La alternativa de propiedad de modelos

    La historia de Anthropic/DeepSeek tiene una solución directa escondida a la vista: sé dueño de tus modelos.

    No "dueño" en el sentido de tener una clave API. Dueño en el sentido de poseer los pesos reales del modelo, entrenados con tus datos, corriendo en tu infraestructura, bajo tu control.

    Así se ve en la práctica:

    Comienza con un modelo base open-source. Llama 3, Qwen 2.5, Mistral — estos son modelos de calidad de producción con licencias permisivas. Meta explícitamente permite la destilación de Llama con la atribución adecuada. No estás violando los ToS de nadie. No dependes de la API de nadie. Tienes los pesos en tu propio hardware.

    Ajústalo con tus datos de dominio. Toma ese modelo base y ajústalo para tu caso de uso específico. Los registros de soporte al cliente. Tu documentación de producto. Tus conversaciones de ventas. Tus requisitos de cumplimiento. El modelo resultante no solo aproxima inteligencia genérica — desarrolla capacidades únicas para tu negocio.

    Exporta y despliega en cualquier lugar. Exporta a formato GGUF y ejecútalo en Ollama, llama.cpp, LM Studio o cualquier motor de inferencia compatible. Tu modelo corre en tu hardware. Sin llamadas API. Sin costos por token. Sin proveedor que pueda depreciar tu modelo o cambiar las reglas.

    La economía es convincente. Las agencias que ejecutan 15 clientes con llamadas API típicamente gastan AU$4,200/mes. La misma carga de trabajo con adaptadores LoRA ajustados por cliente cuesta menos de AU$15/mes — una reducción del 99.6%. Los desarrolladores independientes escalando de 100 a 40,000 usuarios ven su factura de API pasar de $12/mes a $3,000/mes. Con un modelo local ajustado, el costo se mantiene esencialmente estable.

    Pero la economía es en realidad el beneficio secundario. El beneficio principal es este: nadie puede quitarte tu modelo.

    Ningún proveedor puede depreciarlo. Ningún cambio de ToS puede invalidarlo. Ningún baneo de cuenta puede apagarlo. Ningún cambio de precios puede hacerlo inasequible. Es tuyo.

    Cómo se ve realmente "ser dueño de tu IA"

    La propiedad de modelos no es todo o nada. No tienes que eliminar cada llamada API mañana. El camino práctico se ve más así:

    Fase 1: Identifica tus tareas de IA de mayor volumen y más predecibles. Estas son tus candidatas para fine-tuning. Tareas donde el formato de entrada/salida es consistente, tienes datos de entrenamiento disponibles y estás pagando costos significativos por token. Clasificación de soporte al cliente, generación de contenido en un formato específico, extracción de datos de documentos estructurados.

    Fase 2: Ajusta un modelo para una tarea. Usa tus registros de API existentes como datos de entrenamiento. Ajusta un modelo de 7B o 14B parámetros. Compara la calidad contra tu solución actual basada en API. Para tareas específicas de dominio, los modelos ajustados consistentemente logran 90-95% de precisión — a menudo igualando o superando lo que los modelos frontera con ingeniería de prompts entregan.

    Fase 3: Despliega en paralelo. Ejecuta tu modelo ajustado junto a la API durante un período de prueba. Enruta un porcentaje del tráfico al modelo local. Valida la calidad. Mide el ahorro de costos. Construye confianza.

    Fase 4: Expande. Una vez que una tarea está corriendo en tu propio modelo, repite el proceso para la siguiente. En 90 días, puedes migrar tus cargas de trabajo de IA más críticas de alquiladas a propias.

    Las herramientas para hacer esto ya existen. Los modelos open-source son de calidad de producción. El fine-tuning con LoRA es suficientemente eficiente para ejecutar en GPUs de grado consumidor. La exportación a GGUF significa que tu modelo es portable entre motores de inferencia.

    La barrera nunca ha sido la viabilidad técnica. Ha sido la accesibilidad — la brecha entre "teóricamente posible" y "prácticamente alcanzable" para equipos sin experiencia en ML.

    Esa es la brecha que Ertas está diseñado para cerrar. Una interfaz visual para todo el pipeline: sube tu dataset, ajusta el modelo, compara resultados lado a lado, exporta a GGUF. Sin Python. Sin configuraciones YAML. Sin CLI. Configuración en aproximadamente dos minutos.

    La verdadera conclusión

    La historia de Anthropic/DeepSeek se debatirá durante meses. La geopolítica, las preguntas legales, las implicaciones de seguridad nacional — estas son conversaciones reales e importantes.

    Pero para constructores, fundadores, dueños de agencias y equipos de producto, la conclusión es más simple:

    Si estás construyendo sobre IA que no controlas, estás construyendo bajo los términos de alguien más. Esos términos pueden cambiar en cualquier momento. El único camino hacia la verdadera independencia en IA es la propiedad de modelos — modelos entrenados con tus datos, corriendo en tu infraestructura, de tu propiedad.

    DeepSeek tuvo que crear 24,000 cuentas falsas porque no era dueño de las capacidades que necesitaba. Tú tienes una mejor opción: construir esas capacidades tú mismo, sobre bases open-source, con tus propios datos.

    La tecnología existe. La economía funciona. La única pregunta es cuánto tiempo esperas para comenzar.


    Deja de alquilar tu IA. Pre-suscríbete a Ertas a precio de early-bird y sé dueño de tus modelos desde el día uno. El plan Builder se fija en $14.50/mes de por vida. Ver precios →

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading