Back to blog
    Por qué 'Usamos la API' significa que no tienes control sobre tu IA en producción
    api-dependencymodel-controlai-governancevendor-dependencymodel-ownership

    Por qué 'Usamos la API' significa que no tienes control sobre tu IA en producción

    Todo equipo que depende de una API de IA en la nube ha externalizado silenciosamente el control del comportamiento de su IA. Esto es exactamente lo que pierdes cuando el modelo vive en la infraestructura de alguien más.

    EErtas Team·

    La mayoría de los equipos que construyen sobre APIs de IA en la nube creen que controlan su IA. Escriben los prompts. Establecen las instrucciones del sistema. Eligen la temperatura y la ventana de contexto. Se sienten en control.

    No lo están.

    Control — control real — significa que tú determines qué pasa cuando una entrada dada llega a tu sistema. Ese es el trabajo del modelo. El modelo decide. Y el modelo no es tuyo.

    El prompt que escribiste es una solicitud. El modelo decide cómo honrarla basándose en decisiones de entrenamiento, filtros de seguridad y valores de RLHF que fueron hechos por alguien más, para propósitos que pueden o no alinearse con tu caso de uso. Estás escribiendo sugerencias a una caja negra que alguien más construyó y mantiene.

    Esta no es una queja teórica. Tiene consecuencias operacionales concretas. Aquí están las seis dimensiones de control que pierdes cuando el modelo vive en la infraestructura de alguien más.

    1. Actualizaciones de modelo: cambios silenciosos de comportamiento

    Los proveedores de IA en la nube actualizan sus modelos. A veces lo anuncian; a menudo no. Cuando gpt-4-turbo se actualiza, cada aplicación que usa ese endpoint recibe un nuevo modelo sin ninguna acción de despliegue de tu parte. El cambio es invisible a nivel de infraestructura — mismo endpoint, misma clave API, comportamiento diferente.

    ¿Cómo se ve "comportamiento diferente" en la práctica? Salidas más cortas. Preferencias de formato cambiadas. Umbrales de clasificación desplazados. Tasas de rechazo aumentadas en ciertos temas. Estilo de resumen alterado. Ninguno de estos cambios activa una alerta de despliegue. Ninguno aparece en los logs de tu aplicación como un cambio de versión. El comportamiento de tu producto cambió y probablemente no lo sabrás hasta que un usuario te diga que algo es diferente.

    Esto no es hipotético. Está documentado en toda la industria. Los equipos con productos impulsados por LLM construyen suites de pruebas de regresión específicamente porque han sido afectados por actualizaciones silenciosas de modelos.

    2. Datos de entrenamiento: decisiones que no tomaste

    El comportamiento del modelo — lo que sabe, lo que enfatiza, lo que tiende a rechazar, cómo enmarca temas ambiguos — refleja decisiones hechas durante el entrenamiento. Esas decisiones incluyen qué datos se incluyeron, qué datos se filtraron, cómo se ponderaron los datos, y qué evaluadores humanos evaluaron como bueno versus malo durante RLHF.

    No tuviste ninguna participación en nada de eso. Los datos de entrenamiento reflejan las prioridades del proveedor, exposición legal, consideraciones geográficas y datasets disponibles — no tu experiencia de dominio ni las necesidades de tus usuarios.

    Esto importa más de lo que parece. Un modelo entrenado predominantemente en texto de internet en inglés tiene suposiciones incorporadas sobre idioma, cultura y contexto que pueden no coincidir con tu contexto de despliegue. Un modelo donde los evaluadores recibieron instrucciones de preferir respuestas más cortas producirá respuestas más cortas — sea o no apropiado para tu caso de uso. Un modelo donde la exposición legal moldeó el filtrado de datos tendrá vacíos que pueden ser exactamente tu dominio.

    No estás configurando una herramienta con un prompt del sistema. Estás heredando un conjunto completo de preferencias codificadas.

    3. Infraestructura de inferencia: tu SLA es su SLA

    La disponibilidad de tu producto está limitada por el uptime de tu proveedor de IA. Si la API está caída, tu función de IA está caída. Si la latencia se dispara, tu latencia se dispara. Las características de rendimiento de tu producto están parcialmente fuera de tu control.

    La mayoría de los proveedores principales ofrecen SLAs de 99.9% de uptime. Eso son 8.7 horas de tiempo de inactividad por año bajo el SLA — antes de cualquier mantenimiento planificado o casos límite que caigan dentro del lenguaje del SLA pero aún causen degradación. Si tu producto es crítico para el negocio, estás aceptando que los problemas de infraestructura de tu proveedor se conviertan en tus incidentes de producción.

    La caída del proveedor en noviembre de 2024 que tumbó la API de Claude por varias horas es un ejemplo concreto. Cada producto que dependía de esa API tuvo un incidente de producción sin ningún camino de mitigación más allá de esperar.

    4. Precios: cambios de costos unilaterales

    Los precios por token pueden cambiar. Han cambiado. Cuando un proveedor actualiza precios — ya sea subiendo tarifas o cambiando estructuras de niveles — tu economía unitaria cambia sin ninguna acción de tu parte.

    OpenAI cambió los precios de GPT-4 múltiples veces. Anthropic actualizó los precios de Claude cuando lanzó nuevas versiones de modelo. Cada cambio requirió que los equipos de ingeniería re-evaluaran decisiones de construir-versus-comprar, actualizaran modelos financieros y a veces rearquitecturaran para usar endpoints más baratos.

    Para cargas de trabajo de producción de alto volumen, esta exposición es significativa. Un aumento de precio del 20% en un millón de llamadas API diarias es un impacto presupuestario material contra el que no tienes protección contractual más allá de los términos que aceptaste al registrarte.

    5. Cambios de políticas: restricciones retroactivas de casos de uso

    Las políticas de uso aceptable evolucionan. Lo que un proveedor permite hoy puede restringir mañana — particularmente a medida que la regulación de IA avanza globalmente y los proveedores ajustan políticas para mantener el cumplimiento en diferentes jurisdicciones.

    Si tu caso de uso está cerca de cualquier frontera de política — investigación legal, información médica, herramientas de seguridad, asesoría financiera, contenido político — cargas el riesgo de que una actualización de política reduzca el espacio en el que opera tu aplicación. El proveedor te dará aviso, probablemente. No harán excepciones para tu caso de uso.

    Esto crea una categoría de riesgo de producto que no tiene análogo en las dependencias de software tradicionales. Una biblioteca no actualiza su política de uso aceptable. Una API puede.

    6. Pivotes estratégicos: la misión de tu proveedor acaba de cambiar

    A principios de 2026, OpenAI firmó un contrato con el Departamento de Defensa de EE.UU. para proporcionar servicios de IA para aplicaciones militares. Esta es una decisión de negocio factual de una empresa privada.

    Esto es lo que significa para toda empresa que construye sobre APIs de OpenAI: tu proveedor de IA es ahora también un contratista de defensa. El Departamento de Defensa de EE.UU. es un stakeholder implícito en tu stack de IA. No votaste por eso. No estaba en ningún criterio de selección de proveedor. Sucedió unilateralmente.

    ¿Esto cambia cómo OpenAI desarrolla modelos? ¿Afecta las prioridades de entrenamiento? ¿Cambia cómo se calibra el filtrado de seguridad? ¿Afecta qué casos de uso OpenAI prioriza o des-prioriza? Probablemente no dramáticamente, a corto plazo. Pero no lo sabes. No puedes ver dentro del modelo. No tienes derechos de auditoría sobre cómo las prioridades del proveedor afectan el comportamiento del modelo.

    Esta es la versión más aguda del problema de control: tu proveedor puede tomar una decisión estratégica que cambia materialmente para qué está optimizada su IA, y te enterarás cuando se anuncie públicamente.

    La brecha de gobernanza que esto crea

    Todo framework de gobernanza de IA empresarial tiene políticas, controles y cadenas de responsabilidad para sistemas que la empresa controla. La frontera con el proveedor es una brecha en ese framework.

    Puedes documentar tus prompts. Puedes registrar tus entradas y salidas. Puedes monitorear latencia y tasas de error. Pero no puedes auditar los datos de entrenamiento del modelo. No puedes observar una actualización de modelo antes de que llegue a producción. No puedes fijarte a un estado exacto del modelo y garantizar que no cambiará. No puedes verificar que los procesos internos del proveedor se alineen con tus requisitos de gobernanza.

    Gobernanza de Modelos de IA en Producción cubre el framework completo de gobernanza donde esta brecha se ubica. El punto aquí es específico: la brecha existe estructuralmente porque no eres dueño del modelo.

    Cómo se ve la propiedad de modelos en la práctica

    La alternativa no es construir tu propio modelo de base desde cero. Es ajustar un modelo de base open-source con tus datos de dominio, ser dueño de los pesos resultantes y controlar el despliegue tú mismo.

    Concretamente: tomas un modelo como Llama 3, Mistral o Qwen. Lo ajustas con tu dataset propietario — conversaciones de soporte al cliente, documentos específicos de dominio, ejemplos etiquetados de tu tarea. Ahora eres dueño de un checkpoint de modelo que produce salidas calibradas a tu dominio.

    Exportas ese checkpoint a formato GGUF. GGUF es un formato de modelo portable y cuantizado que corre en Ollama, llama.cpp y LM Studio. Ejecutas inferencia en tu propio hardware — una estación de trabajo, un servidor o un dispositivo edge. El modelo no cambia a menos que decidas reentrenar. Las actualizaciones son explícitas. El rollback es posible. El linaje de datos de entrenamiento es tuyo para documentar.

    Esto resuelve las seis dimensiones de control:

    • Sin actualizaciones silenciosas de modelo — los pesos son estáticos hasta que reentrenas
    • Los datos de entrenamiento son tus datos — tú tomaste esas decisiones
    • La inferencia corre en tu infraestructura — tu SLA, tu uptime
    • Sin precios por token — el cómputo es un costo fijo o predecible
    • Sin política de uso aceptable — es tu modelo en tu hardware
    • Sin pivotes estratégicos del proveedor — no dependes de la misión de nadie

    La economía es mejor a escala

    Los precios de API para cargas de trabajo de alto volumen son significativamente más caros que la inferencia ejecutada localmente a escala. La matemática:

    Una llamada API de clase GPT-4 cuesta aproximadamente $0.01-0.03 por 1,000 tokens con precios actuales. Un modelo ajustado de 7B parámetros corriendo en una GPU de rango medio cuesta aproximadamente $0.00004-0.0001 por 1,000 tokens en costo de electricidad a utilización completa. Eso es una reducción de costos del 99.6% para rendimiento comparable en tareas específicas de dominio — donde los modelos pequeños ajustados frecuentemente igualan o superan a los modelos más grandes de propósito general.

    El costo de hardware se amortiza rápidamente a volumen significativo. A 500,000 llamadas API por mes, los ahorros de la inferencia local pagan por una máquina de inferencia dedicada en semanas.

    Ve cómo funciona la economía de construir vs. alquilar →

    El camino

    El fine-tuning requiere un dataset etiquetado, una ejecución de entrenamiento y un proceso de evaluación. La sobrecarga de herramientas ha sido la barrera para la mayoría de los equipos — no el concepto, sino la infraestructura requerida para ejecutarlo.

    Ertas Fine-Tuning SaaS está construido para eliminar esa barrera. Sube tu dataset, configura tu fine-tune a través de una interfaz visual, ejecuta en GPUs en la nube, descarga el GGUF resultante. No se requiere infraestructura de MLOps. El modelo resultante es tuyo: portable, con versión fijada, y desplegable en cualquier lugar donde llama.cpp corra.

    Ver precios early bird →

    Si estás ejecutando cargas de trabajo de IA de alto volumen en una API en la nube, la pregunta no es si vale la pena explorar el fine-tuning. Es por qué no lo has hecho todavía.

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading