
Preparación de Datos Consciente del Runtime: Por Qué Tu Pipeline Debería Saber Dónde Se Ejecutará el Modelo
Los pipelines de IA actuales asumen entrenar-y-desplegar. Para IA en dispositivo, el flujo es maestro → destilación → cuantización → restricciones de runtime. La preparación de datos que entiende el runtime objetivo produce modelos fundamentalmente mejores.
La mayoría de los pipelines de preparación de datos de IA no tienen idea de dónde se ejecutará eventualmente el modelo. Producen un archivo JSONL. Ese archivo se entrega a un script de entrenamiento. El modelo entrenado se despliega en algún lugar. El equipo de datos y el equipo de despliegue operan independientemente, conectados por un formato de archivo.
Esto funciona cuando el entrenamiento y el despliegue ocurren en hardware similar. No funciona cuando el objetivo de despliegue es un NPU Qualcomm Snapdragon con 8GB de memoria compartida, una ventana de contexto de 512 tokens y un presupuesto de latencia de 50ms.
Para IA en dispositivo, el objetivo de despliegue debería dar forma al dataset — no al revés.
La Desconexión Que Rompe los Modelos en Dispositivo
Este es el pipeline típico de IA empresarial:
- El equipo de datos prepara los datos de entrenamiento (optimizado para completitud y cobertura)
- El equipo de ML ajusta un modelo (optimizado para precisión en benchmarks)
- El equipo de despliegue cuantiza y exporta (optimizado para encajar en el hardware)
- El rendimiento en dispositivo está 15–25 puntos porcentuales por debajo de los benchmarks en la nube
El paso 4 no debería ser una sorpresa. Pero consistentemente lo es, porque los pasos 1–3 operan sin conocimiento de las restricciones de despliegue del paso 4.
El equipo de datos incluye ejemplos de 4,000 tokens porque son completos. El equipo de ML entrena con todos ellos porque generalmente más datos ayuda. El equipo de despliegue cuantiza a Q4 y trunca el contexto a 512 tokens. El modelo ha sido entrenado con patrones que nunca podrá usar en producción.
Esto no es un problema de despliegue. Es un problema de preparación de datos que se manifiesta en el despliegue.
Qué Significa la Preparación de Datos Consciente del Runtime
La preparación de datos consciente del runtime significa codificar las restricciones de despliegue en el pipeline de datos desde el inicio. Antes de que se seleccione un solo ejemplo de entrenamiento, defines:
Perfil de hardware objetivo:
- Qualcomm Hexagon NPU (móvil): modelos de 0.5B–1B, 4–8GB de memoria, 15–50ms de latencia
- Qualcomm XElite Snapdragon (laptop): modelos de 3B–8B, 16–32GB de memoria, 50–200ms de latencia
- Apple Neural Engine: modelos de 0.5B–3B, arquitectura de memoria unificada
- Intel NPU: modelos de 1B–3B, integrado en procesadores Core Ultra
- NVIDIA Jetson (edge): modelos de 3B–14B, memoria GPU dedicada
Presupuesto de ventana de contexto: No el máximo del modelo — el límite práctico dadas las restricciones de memoria y latencia. Un modelo de 0.5B podría soportar 2048 tokens técnicamente, pero a 512 tokens se ejecuta 4x más rápido y usa 60% menos memoria. Tu ventana de contexto de producción determina la distribución de longitud de tus datos de entrenamiento.
Nivel de cuantización: Q4 (4-bit) reduce el tamaño del modelo un 75% pero aumenta la sensibilidad a casos límite. Q8 (8-bit) preserva más precisión pero requiere más memoria. El nivel de cuantización afecta qué patrones de entrenamiento sobreviven la compresión.
Formato de salida: ¿Clasificación JSON? ¿Respuesta en texto libre? ¿Extracción estructurada? El formato de salida restringe el vocabulario, la longitud de respuesta y los tipos de ejemplos que son útiles.
Cómo las Restricciones Fluyen a Decisiones de Datos
Una vez que has definido el perfil de runtime, cada decisión de preparación de datos se mapea a una restricción.
Filtrado por longitud. Si tu ventana de contexto en producción es 512 tokens, tus ejemplos de entrenamiento deberían tener entradas menores a 400 tokens (dejando espacio para la salida). Elimina o trunca cualquier cosa más larga. Esto no es pérdida de datos — es alineación con la realidad de producción.
Calibración de complejidad. Un Hexagon NPU ejecutando un modelo de 0.5B con cuantización Q4 puede manejar de forma confiable clasificación de un solo paso, extracción basada en plantillas y generación de forma corta. No puede manejar de forma confiable razonamiento multi-paso, cadenas de lógica condicional o resúmenes abiertos. Tus datos de entrenamiento deberían coincidir con lo que el runtime puede entregar.
Alcance de vocabulario. Cuenta los tokens únicos en tus datos de entrenamiento. Para un modelo de 0.5B, si tu vocabulario de entrenamiento excede 15,000 tokens únicos, estás distribuyendo la capacidad de embeddings demasiado. Reduce el vocabulario estandarizando terminología, eliminando variantes raras y consolidando sinónimos.
Diseño de ejemplos consciente de la latencia. Si tu presupuesto de latencia es 50ms, tu modelo necesita generar la salida en esa ventana. A un throughput típico en dispositivo de 20–40 tokens/segundo para modelos sub-1B, eso es 1–2 tokens. Tus datos de entrenamiento deberían producir salidas medibles en ese rango, o tu estrategia de batching necesita contemplar una generación más larga.
El Ejemplo de Cloud-a-Edge de Qualcomm
El stack de Qualcomm ilustra cómo la consciencia del runtime cambia el pipeline. Su enfoque:
- Entrenamiento en la nube en GPUs Qualcomm AI 100 — el modelo se ajusta a precisión completa
- Optimización vía Qualcomm AI Hub — el modelo se cuantiza y compila para el dispositivo objetivo
- Exportación a un formato de runtime — ExecuTorch, LiteRT u ONNX dependiendo del framework de despliegue
- Despliegue en dispositivo — Hexagon NPU para móvil, XElite para laptops
El paso de preparación de datos (antes del paso 1) determina los resultados en el paso 4. Si los datos de entrenamiento se prepararon sin conocimiento de las restricciones del Hexagon NPU, el modelo será optimizado y cuantizado perfectamente — y aún así tendrá un rendimiento inferior porque aprendió los patrones equivocados.
Un pipeline de datos consciente del runtime para este stack:
- Acepta el dispositivo objetivo como parámetro de entrada (por ejemplo, "Snapdragon 8 Gen 3, Hexagon NPU")
- Establece automáticamente restricciones de longitud, complejidad y vocabulario basándose en ese objetivo
- Filtra y puntúa los ejemplos de entrenamiento contra esas restricciones
- Marca ejemplos que exceden las capacidades del dispositivo antes de que entren al conjunto de entrenamiento
Qué Cambia Esto en la Práctica
Los equipos que adoptan la preparación de datos consciente del runtime reportan mejoras consistentes:
Ciclos de iteración reducidos. Sin consciencia del runtime, los equipos típicamente necesitan 4–6 ciclos de datos-modelo-despliegue para lograr un rendimiento aceptable en dispositivo. Con restricciones de runtime codificadas desde el inicio, esto baja a 2–3 ciclos. Cada ciclo involucra preparación de datos, entrenamiento, cuantización y pruebas en dispositivo — ahorrando semanas de tiempo de ingeniería.
Menos sorpresas en despliegue. El resultado más costoso es un modelo que pasa todos los benchmarks en la nube y falla en dispositivo. La preparación de datos consciente del runtime elimina la categoría de fallos causados por desajuste entre entrenamiento y despliegue.
Mejor utilización de la capacidad del modelo. Un modelo de 0.5B entrenado con datos conscientes del runtime usa sus parámetros limitados en patrones que importan en producción. Sin capacidad desperdiciada en patrones que el modelo nunca ejecutará en dispositivo.
La Restricción On-Premise
Para equipos empresariales, hay un requisito adicional: la preparación de datos debe hacerse on-premise. Si tus datos fuente incluyen registros clínicos, documentos legales o transacciones financieras, no puedes enviarlos a una herramienta de anotación en la nube — incluso si el modelo final se ejecuta en dispositivo.
Esto crea un flujo de trabajo de tres entornos:
- On-premise: preparación de datos (los datos sensibles permanecen en el edificio)
- Nube: entrenamiento del modelo en clústeres de GPU (solo pesos del modelo y datasets preparados, no datos fuente crudos)
- En dispositivo: despliegue del modelo (los datos de inferencia permanecen en el dispositivo)
El entorno de preparación de datos debe ser consciente del runtime mientras también está aislado. Esa combinación — consciencia del runtime más operación on-premise — es lo que la mayoría de los equipos empresariales no tienen.
Cómo Aborda Esto Ertas Data Suite
Ertas Data Suite es una aplicación de escritorio nativa que se ejecuta completamente on-premise. Al configurar un proyecto de preparación de datos, especificas el despliegue objetivo:
- Clase de dispositivo (NPU móvil, laptop, dispositivo edge, centro de datos)
- Tamaño objetivo del modelo (0.5B, 1B, 3B, 8B, 14B+)
- Presupuesto de ventana de contexto
- Nivel de cuantización
El módulo Clean ajusta automáticamente los umbrales de puntuación de calidad para coincidir con estas restricciones. El módulo Augment genera datos sintéticos calibrados para la capacidad del modelo objetivo. El módulo Export valida que el dataset final sea compatible con el objetivo de despliegue especificado.
Ningún dato sale del edificio. El pipeline sabe dónde se ejecutará el modelo. Los dos requisitos que los equipos empresariales de IA en dispositivo más necesitan — privacidad y consciencia del runtime — se manejan en una sola herramienta.
Agenda una Llamada de Descubrimiento para discutir la preparación de datos consciente del runtime para tu despliegue de IA en dispositivo.
Turn unstructured data into AI-ready datasets — without it leaving the building.
On-premise data preparation with full audit trail. No data egress. No fragmented toolchains. EU AI Act Article 30 compliance built in.
Keep reading

The Cloud-to-Edge AI Pipeline: How Data Prep Fits Between Training and Deployment
The full cloud-to-edge AI pipeline spans raw data through on-device deployment. Data preparation is the step between raw enterprise data and cloud training — and it's where most edge AI projects fail.

On-Device vs On-Premise AI: Different Privacy Problems, Different Data Prep
On-device AI and on-premise AI solve fundamentally different privacy problems — and require fundamentally different data preparation strategies. Here's how to tell which you need and what your data pipeline should look like for each.

Why Your Fine-Tuning Dataset Won't Work for On-Device AI — And How to Fix It
Most fine-tuning datasets are built for large cloud models. When distilled to 0.5B–1B models for mobile NPUs, the data distribution breaks. Here's why, and how to build datasets that actually work for on-device deployment.