
Cómo Definir el Alcance de un Proyecto de Modelo de IA Personalizado (y Qué Cobrar)
Las preguntas de descubrimiento, tipos de proyecto, rangos de precios y estrategias de gestión de alcance para proyectos de modelos de IA personalizados. Cómo definir el alcance correctamente antes de cotizar.
El error más costoso en el trabajo de modelos de IA personalizados es comenzar un proyecto sin entender lo que realmente estás construyendo. Los proyectos de modelos de IA personalizados se ven similares en la superficie — "queremos ajustar un modelo con nuestros datos" — pero varían enormemente en complejidad, calidad de datos, requisitos de integración y cronograma de entrega.
Definir bien el alcance antes de cotizar te salva de los dos desastres más comunes de agencia: subcotizar un proyecto complejo (pierdes dinero) o sobrecotizar uno simple (pierdes al cliente).
Las 4 Variables que Determinan la Complejidad del Proyecto
Cada proyecto de modelo de IA personalizado tiene cuatro variables. Cada una puede duplicar o triplicar el alcance:
1. Disponibilidad y calidad de datos. La variable más impredecible. Un cliente con 2,000 pares limpios y etiquetados (entrada, salida) en formato JSONL es un proyecto de 2 semanas. Un cliente que cree que tiene datos pero en realidad tiene PDFs no estructurados, formatos inconsistentes y etiquetas parciales es un proyecto de 6-8 semanas (mayormente ingeniería de datos). Nunca cotices sin evaluar los datos reales.
2. Complejidad de la tarea. Las tareas de clasificación (enrutar este ticket al departamento X) son más simples de ajustar que las tareas de generación (escribir una respuesta a este ticket con nuestra voz de marca). Las tareas de salida única son más simples que las tareas de razonamiento de múltiples pasos. Cuanto más difícil la tarea, más datos de entrenamiento se necesitan y más iteración se requiere.
3. Requisitos de despliegue. Desplegar un modelo GGUF en Ollama en el VPS de un cliente es directo. Integrarse con un sistema CRM empresarial existente, objetos personalizados de Salesforce y un gateway de API legado es un proyecto de integración de 4 semanas además del trabajo del modelo. Mapea la superficie de integración antes de cotizar.
4. Umbral de calidad. Un cliente que necesita 80% de precisión es un proyecto diferente de uno que necesita 95%+. Umbrales más altos requieren más datos de entrenamiento, más ciclos de evaluación y a veces un modelo más grande. Pregunta explícitamente: "¿Qué nivel de precisión necesitaría lograr esto para reemplazar tu proceso actual?"
La Lista de Verificación de la Llamada de Descubrimiento
No cotices nada hasta que tengas respuestas a estas preguntas. Presupuesta 45-60 minutos.
Problema y solución actual:
- ¿Qué tarea específica esperas que la IA maneje?
- ¿Cómo se hace esta tarea hoy? ¿Quién la hace, cuánto tiempo toma?
- ¿Qué cuesta un error (en tiempo, dinero o impacto al cliente)?
Datos:
- ¿Tienes ejemplos históricos de esta tarea siendo hecha correctamente?
- ¿En qué formato (hoja de cálculo, registros de CRM, logs de chat, PDFs)?
- ¿Cuántos ejemplos? (Pide una muestra — no una descripción de la muestra, el archivo real)
- ¿Quién etiquetó o aprobó estos ejemplos?
Despliegue:
- ¿Dónde correría el modelo? (¿Tus servidores? ¿Servidores del cliente? ¿API en la nube?)
- ¿Con qué sistemas necesita integrarse?
- ¿Quién en su equipo lo administrará de forma continua?
Criterios de éxito:
- ¿Cómo sabrás que el modelo está funcionando?
- ¿Qué tasa de precisión haría esto exitoso?
- ¿Qué pasa si el modelo se equivoca?
Cronograma y stakeholders:
- ¿Cuándo necesitas que esto funcione?
- ¿Quién toma la decisión final sobre este proyecto?
- ¿Cuál es el rango de presupuesto que tienes en mente?
Tipos de Proyecto y Rangos de Precios
| Tipo de Proyecto | Descripción | Cronograma | Rango de Precios |
|---|---|---|---|
| Auditoría de datos | Evaluar calidad de datos existentes, recomendar estructura de dataset, estimar viabilidad de fine-tuning | 1-2 semanas | $1,500-3,000 |
| Prueba de concepto | Ajustar un modelo con datos existentes, evaluar precisión, desplegar en entorno de prueba | 2-4 semanas | $3,000-8,000 |
| Despliegue estándar | Preparación de datos + fine-tuning + integración + configuración de monitoreo para un caso de uso | 4-8 semanas | $8,000-20,000 |
| Despliegue multi-caso de uso | Lo mismo que arriba pero 2-4 modelos/casos de uso distintos | 8-16 semanas | $20,000-60,000 |
| Retainer continuo | Mantenimiento mensual del modelo, reentrenamiento, monitoreo, evaluación | Mensual | $500-2,500/mes |
Estos son rangos en USD para condiciones de mercado de 2026. Ajusta para tu mercado, tu historial y el tamaño del cliente. Una empresa de 500 personas paga más que una de 20 personas por el mismo entregable.
El Problema de Datos
Esto merece su propia sección porque es donde la mayoría de proyectos de IA fallan, y es donde ocurren la mayoría de errores de alcance.
Los clientes consistentemente sobreestiman su preparación de datos. Respuestas comunes durante el descubrimiento:
-
"Tenemos 5 años de tickets de soporte al cliente" → Generalmente almacenados en un sistema sin función de exportación, parcialmente etiquetados, a menudo reflejando políticas que han cambiado y formateados de forma inconsistente. Datos reales de entrenamiento limpios: 300-800 ejemplos después de 3-4 semanas de ingeniería de datos.
-
"Tenemos toda nuestra documentación de producto" → PDFs no estructurados, documentos Word y wikis. Útil para RAG, no directamente para fine-tuning. Debe transformarse en pares (pregunta, respuesta).
-
"Nuestro equipo hace esto manualmente todos los días" → La tarea está claramente definida, pero no hay ejemplos registrados. Debe recolectarse prospectivamente o crearse sintéticamente.
Señales de alerta que aumentan el alcance:
- "Podemos darte los datos la próxima semana" (aún no los tienen)
- Datos en un sistema con limitaciones de exportación
- Múltiples equipos han contribuido al dataset (etiquetado inconsistente)
- El etiquetado fue hecho por diferentes personas en diferentes períodos de tiempo
Señales positivas que reducen el alcance:
- Exportación limpia de un CRM o sistema de tickets
- Etiquetado consistente por una sola persona o equipo pequeño
- El cliente puede darte un archivo de muestra en 24 horas
Siempre pide un archivo de muestra antes de cotizar. Mirar 50 ejemplos reales te dice más que cualquier descripción.
Cambio de Alcance en Proyectos de IA
El cambio de alcance en trabajo de modelos de IA tiene un carácter específico. Generalmente aparece en una de tres formas:
Expansión de funcionalidades: "¿Puede el modelo también manejar X?" — donde X es una tarea relacionada pero distinta que requiere datos de entrenamiento adicionales. Aborda esto con una orden de cambio, no con absorción.
Negociación de precisión: Entregas un modelo con 87% de precisión; el cliente quería 92%. Alcanzar mayor precisión a menudo requiere más datos y más ciclos de entrenamiento. Define "hecho" explícitamente en tu declaración de trabajo con métricas de precisión específicas acordadas de antemano.
Expansión de integración: El alcance de despliegue crece a medida que aprendes más sobre los sistemas del cliente. El original "integrar con nuestro CRM" se convierte en "integrar con nuestro CRM, nuestra plataforma de email y nuestro sistema de reportes." Cada integración es un entregable separado.
La Declaración de Trabajo: Secciones Clave
Cada proyecto de modelo de IA personalizado necesita un SOW escrito antes de que el trabajo comience. Secciones clave:
Entregables — Lista exacta de lo que entregarás: archivo(s) de modelo, código de integración, documentación, documentación de datos de entrenamiento, guía de despliegue.
Umbral de precisión — La métrica específica (por ejemplo, "88% o más de precisión en conjunto de prueba separado de 200 ejemplos") que constituye un modelo exitoso. Esto previene conversaciones de "pensé que sería mejor."
Requisitos de datos — Exactamente qué datos debe proporcionar el cliente, en qué formato, para qué fecha. Si no los proporcionan, el cronograma se desplaza.
Política de revisiones — Cuántas rondas de revisión del modelo están incluidas. Después de las rondas incluidas, iteraciones adicionales se facturan como órdenes de cambio.
Handoff y soporte — Qué entrenamiento/documentación reciben, por cuánto tiempo proporcionas soporte post-lanzamiento, qué está incluido en el soporte post-lanzamiento versus qué activa un retainer adicional.
Estructura de pago — Recomendado: 40% por adelantado, 30% en la entrega del modelo, 30% al completar la integración. Nunca empieces sin un depósito.
Ship AI that runs on your users' devices.
Ertas early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Lecturas Adicionales
- AI Agency Proposal Template — Cómo escribir propuestas ganadoras después del scoping
- How to Start an AI Agency in 2026 — El playbook completo de lanzamiento de agencia
- AI Agency Pricing Strategy — Modelos de precios y guía de tarifas para trabajo de agencia
- Ertas vs DIY Fine-Tuning for Agencies — Consideraciones de plataforma para definir alcance
- Manage Multiple Fine-Tuned Models — Gestionando entregas a través de múltiples proyectos de clientes
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.
Keep reading

Building a Recurring Revenue AI Service with Fine-Tuned Models
How to structure an AI agency offering around fine-tuned models that generates predictable monthly recurring revenue — covering service tiers, pricing models, and the retraining loop.

How to Price Fine-Tuning Services Profitably (Agency Rate Card)
A concrete rate card and pricing methodology for AI agencies offering fine-tuning services. Stop guessing on price — here's what to charge and how to explain it.

AI Agency Pricing Strategy: Subscription vs. Per-Token Pass-Through
How to price your AI agency services when the underlying costs are per-token. Compare subscription, per-token pass-through, and hybrid pricing models — and why fine-tuned local models unlock the best option.