
Por Qué Tus Ingenieros de ML No Deberían Estar Etiquetando Datos (Y Quién Debería)
Tus ingenieros de ML de $180K/año están dedicando el 60% de su tiempo al etiquetado de datos. Eso es una mala asignación de $108K/año. Aquí te mostramos cómo trasladar el etiquetado a expertos de dominio y liberar a los ingenieros de ML para ingeniería real.
Aquí hay un número que debería preocupar a todo líder de ingeniería: el ingeniero de ML promedio en Estados Unidos gana $150,000-$200,000 por año en compensación total. Estas son personas con títulos de posgrado en machine learning, estadística o ciencias de la computación. Fueron contratados para diseñar arquitecturas de modelos, ejecutar experimentos de entrenamiento, construir frameworks de evaluación y desplegar sistemas de inferencia en producción.
Están dedicando el 60-80% de su tiempo limpiando hojas de cálculo, etiquetando documentos manualmente, escribiendo scripts de conversión de datos y depurando formatos de exportación.
Hagamos la matemática explícita. Toma un equipo de 5 ingenieros de ML con $180,000 de compensación total promedio:
- Tiempo dedicado a preparación de datos: 65% (punto medio de 60-80%)
- Costo anual del trabajo de preparación de datos: 5 × $180,000 × 0.65 = $585,000
- Costo anual de ingeniería de ML real: 5 × $180,000 × 0.35 = $315,000
Estás pagando $900,000 por un equipo de ingeniería de ML y obteniendo $315,000 de valor en ingeniería de ML. Los otros $585,000 van a trabajo que expertos de dominio podrían hacer mejor y personal menos costoso podría apoyar.
Esto no es cuestión de que los ingenieros de ML sean flojos o ineficientes. Es un problema estructural: las herramientas y flujos de trabajo para preparación de datos están diseñados para ingenieros de ML, entonces los ingenieros de ML terminan haciendo el trabajo. Cambia las herramientas y los flujos de trabajo, y el trabajo puede trasladarse a las personas que deberían estar haciéndolo.
Por Qué los Ingenieros de ML Son las Personas Equivocadas para Etiquetar Datos
Carecen de Expertise de Dominio
Un radiólogo que ha leído 50,000 radiografías de tórax puede detectar un nódulo de 3mm en una fracción de segundo. Un ingeniero de ML con un doctorado en visión por computadora no puede. Un estimador de construcción que ha presupuestado 200 edificios comerciales puede identificar un costo unitario irrazonable instantáneamente. Un ingeniero de ML mirando una planilla de cantidades ve números.
Cuando los ingenieros de ML etiquetan datos de dominio específico, cometen errores de dominio. Clasifican un hallazgo benigno como sospechoso porque no reconocen el patrón. Etiquetan una cláusula contractual como "estándar" cuando un abogado la marcaría como inusual. Marcan una especificación de construcción como completa cuando un ingeniero notaría la norma de referencia faltante.
Estos errores de etiquetado se propagan al modelo. Un modelo entrenado con datos médicos etiquetados por ingenieros de ML aprende la comprensión (incorrecta) de medicina de un ingeniero de ML. El modelo resultante está confidencialmente equivocado — el peor resultado posible.
La evidencia es consistente: los datasets etiquetados por expertos de dominio producen modelos que son 8-15 puntos porcentuales más precisos que los datasets etiquetados por ingenieros de ML en tareas de dominio específico. Esa brecha es la diferencia entre un modelo que se despliega y uno que se abandona.
Están Sobrecualificados
El etiquetado de datos requiere atención y conocimiento de dominio. No requiere la habilidad de implementar mecanismos de atención desde cero, derivar actualizaciones de gradiente o arquitectar pipelines de entrenamiento distribuido. Usar ingenieros de ML para etiquetar es como usar un ingeniero estructural para cargar ladrillos — pueden hacerlo, pero es un desperdicio de sus habilidades más valiosas.
El costo de oportunidad es real. Mientras tus ingenieros de ML están etiquetando datos, NO están:
- Experimentando con arquitecturas de modelos que podrían mejorar el rendimiento en 5-10%
- Construyendo frameworks de evaluación que detectan fallas en producción antes que los usuarios
- Optimizando pipelines de inferencia que reducen costos de servicio en 40%
- Desarrollando sistemas de monitoreo que detectan drift del modelo en tiempo real
Cada una de estas actividades genera sustancialmente más valor que etiquetar otros 50 documentos.
Se Queman
El etiquetado de datos es repetitivo. Etiquetar un documento. Etiquetar otro documento. Y otro. Revisar las guías. Etiquetar otro documento. Para alguien que entró al campo para resolver problemas técnicos interesantes, pasar semanas en una cola de etiquetado es desmoralizante.
El burnout por etiquetado de datos se manifiesta como calidad de etiquetas en declive (fatiga del anotador), rendimiento decreciente (procrastinación) y eventualmente, búsqueda de empleo. Reemplazar un ingeniero de ML cuesta 50-100% de su salario anual en reclutamiento, incorporación y productividad perdida. Si el etiquetado de datos está impulsando la rotación, el costo se extiende mucho más allá de la matemática directa de salarios.
Se Van
El talento senior de ML tiene alta demanda. Los ingenieros que pasan sus días etiquetando datos en lugar de construir modelos encontrarán empleadores que ofrecen trabajo más interesante. En entrevistas de contratación, los candidatos regularmente citan "estaba dedicando el 80% de mi tiempo a limpiar datos" como su razón para dejar su rol anterior.
Retener talento de ML top requiere darles problemas de ML para resolver. El etiquetado de datos no es un problema de ML — es un problema de expertise de dominio que debería ser resuelto por expertos de dominio.
Quién Debería Etiquetar Datos
Expertos de Dominio
Las personas que entienden los datos son las personas correctas para etiquetarlos. Los médicos etiquetan datos médicos. Los abogados etiquetan datos legales. Los ingenieros etiquetan datos de ingeniería. Los analistas financieros etiquetan datos financieros.
Esto no es controversial en principio. Todos están de acuerdo en que un radiólogo es mejor identificando hallazgos en radiografías de tórax que un ingeniero de ML. La controversia es práctica: "Nuestros expertos de dominio están muy ocupados", "No pueden usar nuestras herramientas de etiquetado", "No quieren hacerlo."
Estos son problemas resolubles:
"Están muy ocupados." Lo están. Por eso las sesiones deberían ser de 20 minutos, no de 2 horas. Veinte minutos al día de 3 expertos de dominio producen 45-90 ejemplos etiquetados por día. En 4 semanas, eso son 900-1,800 ejemplos — suficiente para muchas tareas de fine-tuning.
"No pueden usar nuestras herramientas de etiquetado." Las herramientas de etiquetado actuales (Label Studio, Prodigy, CVAT) están construidas para ingenieros de ML. Requieren entornos de Python, comandos de terminal, navegación de aplicaciones web y conocimiento de esquemas de anotación. Los expertos de dominio necesitan una herramienta que se abra como un visor de documentos y etiquete con un clic. La herramienta es el cuello de botella, no la persona.
"No quieren hacerlo." No quieren usar software complicado para propósitos poco claros. Muéstrales cómo su etiquetado mejora directamente la herramienta de IA que usarán, dales una interfaz simple y limita sus sesiones en tiempo. Tasas de adopción del 70%+ son alcanzables con una gestión del cambio adecuada.
Etiquetado Asistido por IA con Revisión de Expertos
Para tareas de etiquetado de alto volumen, un enfoque híbrido funciona: el modelo de IA genera etiquetas sugeridas, y los expertos de dominio las revisan y corrigen.
Esto es más rápido que etiquetar desde cero — revisar una sugerencia toma 3-5 segundos, mientras que crear una etiqueta desde cero toma 10-30 segundos. Para una sesión de 20 minutos, eso son 240-400 ejemplos revisados versus 40-120 ejemplos etiquetados manualmente. Un aumento de rendimiento de 3-4x.
La clave: las sugerencias de IA deben ser lo suficientemente buenas para que la mayoría sean correctas. Si el experto está corrigiendo el 60% de las sugerencias, la sobrecarga de leer y evaluar malas sugerencias cancela el beneficio de velocidad. Apunta a más del 80% de precisión en sugerencias antes de implementar etiquetado asistido por IA.
La Transición: Redefiniendo Roles
La transición de "los ingenieros de ML etiquetan todo" a "los expertos de dominio etiquetan con soporte de ingenieros de ML" requiere una clara división de responsabilidades.
Nuevo Rol del Ingeniero de ML en la Preparación de Datos
Arquitecto de pipeline: Diseñar el pipeline de preparación de datos — ingesta, parsing, verificaciones de calidad, configuración de exportación. Este es trabajo de ingeniería genuino que usa sus habilidades apropiadamente.
Analista de calidad: Definir métricas de calidad (acuerdo inter-anotador, balance de clases, ratio de deduplicación), monitorearlas a medida que avanza el etiquetado, y señalar problemas sistemáticos al equipo de etiquetado.
Validador estadístico: Después de que el etiquetado está completo, validar el dataset estadísticamente. ¿Hay sesgos del anotador? ¿Ciertas categorías están sobre/subrepresentadas? ¿La distribución de entrada coincide con las expectativas de producción?
Ingeniero de integración: Asegurar que el dataset etiquetado fluya correctamente al pipeline de entrenamiento. Conversión de formato, división de datos, aumento — estas son tareas de ingeniería que pertenecen al ingeniero de ML.
Nuevo Rol del Experto de Dominio
Autoridad de etiquetado: Aplicar su juicio profesional a los ejemplos de entrenamiento. Sus etiquetas son la verdad fundamental.
Autor de guías: Documentar los criterios de etiquetado en términos que otros expertos de dominio puedan seguir. Esto es esencialmente escribir un estándar profesional para datos de entrenamiento de IA — trabajo que solo expertos de dominio pueden hacer.
Revisor de calidad: Verificar aleatoriamente etiquetas de otros anotadores. Una sesión de revisión de 15 minutos por semana detecta errores sistemáticos temprano.
Identificador de casos edge: Señalar ejemplos inusuales que el pipeline manejó mal. Los expertos de dominio están en una posición única para reconocer cuando algo inusual llega porque han visto miles de ejemplos "normales" en su carrera profesional.
El Impacto Financiero
Revisitando la matemática con el nuevo modelo:
Antes: 5 ingenieros de ML × $180K × 65% en preparación de datos = $585K/año en preparación de datos
Después:
- Ingenieros de ML en preparación de datos: 5 × $180K × 20% (arquitectura de pipeline, análisis de calidad, validación) = $180K/año
- Etiquetado por expertos de dominio: 4 expertos × 30 min/día × 250 días laborables × $75/hora equivalente = $37,500/año
- Costo total de preparación de datos: $217,500/año
Ahorro: $367,500/año — y obtienes datos mejor etiquetados porque los expertos de dominio están haciendo el etiquetado.
La capacidad liberada de ingenieros de ML ($405K/año en equivalente salarial) puede redirigirse a:
- Más experimentos de modelos (encontrar mejores arquitecturas más rápido)
- Mejores frameworks de evaluación (detectar problemas antes de producción)
- Optimización de inferencia (reducir costos de servicio)
- Monitoreo y observabilidad (detectar drift más temprano)
Cada una de estas actividades genera directamente valor de negocio que el etiquetado de datos no genera.
Qué Necesita Cambiar
Las Herramientas Deben Cambiar
Las herramientas de etiquetado actuales están construidas para ingenieros de ML. Asumen comodidad con aplicaciones web, configuración JSON y flujos de trabajo basados en terminal. Los expertos de dominio necesitan:
- Una aplicación de escritorio que se instale como cualquier otra aplicación de escritorio
- Visualización de documentos que se vea familiar — como el visor de PDF o el sistema EMR que ya usan
- Controles de etiquetado que no requieran capacitación — hacer clic en un botón, seleccionar una categoría, pasar al siguiente ejemplo
- Guardado automático para que el trabajo interrumpido nunca se pierda
- Sin Python, sin terminal, sin archivos de configuración
El Flujo de Trabajo Debe Cambiar
Deja de pedir a los ingenieros de ML que etiqueten "solo unos pocos ejemplos para empezar." Esos pocos ejemplos se convierten en unos pocos cientos, luego unos pocos miles. En su lugar:
- El ingeniero de ML configura el pipeline y define las métricas de calidad
- El ingeniero de ML etiqueta 10-20 ejemplos para crear la guía inicial de etiquetado
- Los expertos de dominio toman el control del etiquetado, usando la guía
- El ingeniero de ML monitorea métricas de calidad y proporciona retroalimentación estadística
- Los expertos de dominio revisan y abordan problemas de calidad
- El ingeniero de ML valida el dataset final y configura la exportación
La Organización Debe Cambiar
El etiquetado de datos debe reconocerse como trabajo de expertos de dominio, no trabajo de TI. Esto significa:
- El tiempo de expertos de dominio para etiquetado está presupuestado y protegido
- El rendimiento del etiquetado (volumen y calidad) es visible para los gerentes de expertos de dominio
- La conexión entre etiquetado y mejora del modelo de IA es explícita y rastreada
Ertas Data Suite está construido específicamente para habilitar esta transición. La plataforma proporciona a los ingenieros de ML configuración de pipeline, monitoreo de calidad y herramientas de exportación — el trabajo de ingeniería que deberían estar haciendo. Simultáneamente, proporciona a los expertos de dominio una interfaz de etiquetado de escritorio que no requiere conocimiento técnico — clic, etiqueta, listo. Ambos roles trabajan en el mismo sistema con controles de acceso apropiados, eliminando las brechas que surgen cuando las etiquetas se mueven entre herramientas separadas.
Your data is the bottleneck — not your models.
Ertas Data Suite turns unstructured enterprise files into AI-ready datasets — on-premise, air-gapped, with full audit trail. One platform replaces 3–7 tools.
Lectura Adicional
- El Cuello de Botella de Anotación en la IA Empresarial — Cómo la capacidad de etiquetado limita los proyectos de IA empresarial y qué hacer al respecto.
- Los Expertos de Dominio Deberían Ser Dueños del Etiquetado de Datos — El caso completo para trasladar la responsabilidad del etiquetado a expertos en la materia.
- La Brecha de Preparación de Datos en Equipos de ML — Por qué los equipos de ML luchan con la preparación de datos y cómo la estructura organizacional contribuye.
Turn unstructured data into AI-ready datasets — without it leaving the building.
On-premise data preparation with full audit trail. No data egress. No fragmented toolchains. EU AI Act Article 30 compliance built in.
Keep reading

Active Learning Loops: Model-Assisted Labeling Without Data Egress
Active learning uses your model to suggest labels, then domain experts confirm or correct. It cuts labeling time by 75% — and when the model runs locally, zero data leaves your infrastructure.

Getting Doctors to Label Data: Change Management for AI Data Preparation
Domain experts have the knowledge AI needs, but most labeling tools weren't built for them. Here's how to design adoption programs that get doctors, lawyers, and engineers labeling data willingly.

Why Domain Experts — Not ML Engineers — Should Own Data Labeling
The biggest quality bottleneck in enterprise AI isn't the tools — it's that the people with actual domain knowledge are locked out of the labeling process. Here's why that needs to change.