Back to blog
    Por qué tu pipeline RAG falla con los datos de clientes (y cómo solucionarlo)
    ragdata-qualitydata-pipelineclient-dataanomaly-detection

    Por qué tu pipeline RAG falla con los datos de clientes (y cómo solucionarlo)

    Los PDFs malformados, los problemas de codificación, la contaminación de PII y el contenido duplicado degradan silenciosamente la recuperación en RAG. Así es como construir un pipeline de calidad de datos upstream de tu base de datos vectorial.

    EErtas Team·

    El problema de calidad de datos upstream de la recuperación RAG es el siguiente: tu pipeline fue construido y probado con documentos limpios y bien formateados — y tus clientes suben todo lo demás. Los PDFs malformados, los errores de codificación, el texto contaminado con PII, el contenido duplicado y la inconsistencia de formato degradan silenciosamente la calidad de recuperación sin lanzar un error. El sistema RAG parece funcionar; simplemente devuelve peores respuestas, citando fuentes contaminadas o redundantes sin ninguna indicación de que algo esté mal.

    Cinco formas en que los datos de clientes rompen RAG

    1. PDFs malformados

    No todos los PDFs son iguales. Modos de fallo comunes:

    • Archivos de tamaño cero o truncados: PDFs que se corrompieron durante la carga o la transferencia. Los analizadores fallan silenciosamente o devuelven extracciones vacías.
    • PDFs protegidos por contraseña: Archivos que requieren descifrado antes del análisis. Sin preselección, estos fallan sin errores informativos.
    • PDFs con flujos de contenido corruptos: Archivos que parecen válidos pero contienen una estructura interna malformada. El analizador puede extraer contenido parcial, produciendo fragmentos que aparecen en la recuperación pero no responden ninguna pregunta real.
    • PDFs con contenido solo de imagen sin capa OCR: Comunes en archivos escaneados heredados. Sin OCR, no se extrae texto — el documento entra al almacén de vectores como un fragmento de longitud cero o casi cero que se recupera pero no proporciona información.

    Un sistema RAG que ingiere 50,000 documentos de clientes sin preselección puede tener entre el 5 y el 15% de esos documentos en un estado roto. Ninguno de estos fallos emerge como errores del sistema; emerge como calidad de recuperación degradada.

    2. Problemas de codificación

    Los archivos de documentos empresariales acumulan inconsistencias de codificación a lo largo de años de migraciones de sistemas. Problemas comunes:

    • Codificaciones mixtas en un solo lote: Los archivos UTF-8, Windows-1252 e ISO-8859-1 coexisten en la misma carga. Los modelos de incrustación entrenados con texto UTF-8 producen incrustaciones degradadas para entradas que no son UTF-8.
    • Mojibake: Caracteres mal codificados que aparecen como texto ilegible (’ en lugar de ', é en lugar de é). Estos corrompen el contenido semántico de los documentos y hacen que los modelos de incrustación produzcan incrustaciones que no representan con precisión el significado del documento.
    • Bytes nulos y caracteres no imprimibles: Las exportaciones de bases de datos heredadas o ciertas herramientas de conversión de documentos introducen bytes nulos y caracteres de control. Estos rompen la lógica de fragmentación de texto de formas impredecibles.

    Los problemas de codificación son particularmente dañinos porque parecen contenido. Un documento con é por todas partes se incrustará, fragmentará y recuperará — pero la incrustación no se alineará con las consultas que usan el carácter correcto.

    3. Contenido duplicado

    Los archivos de documentos de clientes contienen más duplicación de la que la mayoría de los profesionales esperan. Las fuentes incluyen:

    • El mismo documento archivado en múltiples ubicaciones de directorio
    • Múltiples versiones del mismo contrato con diferencias menores de revisión
    • Correos electrónicos reenviados con el historial completo del hilo incrustado, apareciendo como documentos separados
    • Secciones repetitivas (términos y condiciones estándar, descargos de responsabilidad) que aparecen textualmente en cientos de documentos

    En un sistema RAG, la duplicación se manifiesta como una recuperación que devuelve el mismo contenido de múltiples fuentes, inflando las puntuaciones de confianza para las respuestas basadas en ese contenido. Un sistema entrenado principalmente en texto repetitivo responderá con texto repetitivo. Un sistema con diez copias del mismo documento de política desactualizado recuperará esa política desactualizada de manera confiada y repetida.

    4. Contaminación de PII

    Los documentos de clientes contienen rutinariamente PII: nombres de clientes e información de contacto en tickets de soporte, identificadores de pacientes en notas clínicas, SSN de empleados en documentos de RR.HH., números de cuenta financiera en registros de facturación. Cuando estos datos entran al almacén de vectores, se vuelven recuperables:

    • Una consulta sobre quejas de clientes puede recuperar documentos que contienen los detalles de contacto de clientes específicos
    • Una consulta sobre el desempeño de un empleado puede recuperar documentos que contienen el SSN de ese empleado
    • Una consulta sobre el historial de facturación puede recuperar documentos que contienen números de tarjetas de pago

    Este no es un riesgo hipotético. Es una consecuencia directa de ingestar datos de clientes sin filtrar en un sistema de recuperación accesible a usuarios que no deberían tener acceso a ese PII. Para datos cubiertos por GDPR, puede constituir una violación de datos. Para datos cubiertos por HIPAA, es una violación con consecuencias regulatorias directas.

    5. Inconsistencia de formato

    Las cargas de los clientes abarcan múltiples generaciones de documentos y orígenes de sistemas. Un solo "archivo de documentos" puede contener:

    • PDFs con densidades de texto muy diferentes (un documento de una página con 200 palabras y un manual técnico de 50,000 palabras)
    • Tipos de documentos mixtos que requieren diferentes estrategias de fragmentación (formularios estructurados vs. texto narrativo)
    • Documentos con estructuras de secciones no estándar que hacen que la fragmentación se divida en lugares semánticamente incorrectos
    • Tablas que, cuando se extraen como texto linealizado, pierden las relaciones estructurales que les dan significado

    La inconsistencia de formato no impide la ingesta — degrada la precisión de la recuperación. Los fragmentos de una tabla mal extraída pueden incrustarse con representaciones semánticas débiles. Los fragmentos de un documento dividido en el límite incorrecto pueden combinar conceptos no relacionados en una sola incrustación.

    Por qué "simplemente agregar manejo de errores" falla a escala

    La respuesta intuitiva a estos problemas es agregar manejo de errores al pipeline de ingesta: capturar fallos de análisis, omitir documentos de longitud cero, registrar errores de codificación. Esto funciona para los fallos obvios — el pipeline deja de fallar ruidosamente. No soluciona los fallos silenciosos.

    El mojibake de codificación no lanza un error. Produce una cadena que el sistema procesa con éxito. Los documentos casi duplicados no lanzan un error. Se incrustan, fragmentan y recuperan normalmente. El PII en el texto del documento no lanza un error. Se incrusta junto con el contenido circundante y se vuelve recuperable.

    El manejo de errores detecta los fallos que se manifiestan como excepciones. La mayoría de los problemas de calidad de los documentos se manifiestan como entradas válidas pero degradadas que el pipeline procesa sin queja. A escala — 10,000 documentos, 100,000 documentos — el efecto acumulativo de estas degradaciones silenciosas es significativo y difícil de diagnosticar después del hecho.

    La solución correcta es una puerta de calidad upstream de la ingesta, no el manejo de errores dentro del pipeline de ingesta.

    La solución: un pipeline de calidad de datos antes de la ingesta RAG

    La solución es una capa de calidad de cuatro nodos que se ejecuta antes de que los documentos entren a la base de datos vectorial.

    Detector de anomalías: detectar archivos corruptos

    El nodo Detector de anomalías filtra los documentos entrantes en busca de problemas de integridad estructural:

    • Anomalías de tamaño de archivo (archivos de tamaño cero, archivos demasiado pequeños para contener contenido válido)
    • Validación de estructura PDF (integridad del flujo de contenido, consistencia del recuento de páginas)
    • Detección de archivos protegidos por contraseña
    • Detección de codificación y marcado de archivos que no son UTF-8
    • Detección de bytes nulos y caracteres no imprimibles

    Los documentos que fallan la detección de anomalías se enrutan a una cola de cuarentena en lugar de proceder al análisis. El registro de cuarentena registra la razón de fallo específica para cada documento, permitiendo una corrección específica.

    PII Redactor: evitar que el PII entre al almacén de vectores

    El nodo PII Redactor se ejecuta después del análisis y antes de la fragmentación. Detecta y elimina:

    • Direcciones de correo electrónico, números de teléfono, SSN
    • Direcciones postales e identificadores geográficos
    • Identificadores de registros médicos e identificadores de pacientes
    • Números de cuentas financieras y números de tarjetas

    El PII se reemplaza con tokens etiquetados ([EMAIL], [PHONE], [MEDICAL_ID]) que preservan la estructura semántica del documento mientras eliminan los datos sensibles. El resultado es un documento que representa con precisión su contenido y contexto — sin incrustar PII recuperable en el almacén de vectores.

    Para la conformidad con GDPR e HIPAA, cada redacción se registra: qué tipos de entidades se detectaron, qué método de redacción se aplicó y la puntuación de confianza para cada detección.

    Puntuador de calidad: marcar extracciones de baja confianza

    El Puntuador de calidad evalúa cada documento analizado según un criterio de calidad configurable:

    • Confianza de OCR (para documentos escaneados)
    • Completitud de extracción (porcentaje de páginas analizadas con éxito)
    • Densidad de contenido (palabras mínimas por página, por debajo de las cuales una página probablemente sea un fallo de análisis)
    • Validez de codificación (presencia de indicadores de mojibake y caracteres de reemplazo)

    Los documentos que puntúan por encima del umbral de aceptación proceden a la fragmentación. Los documentos por debajo del umbral se retienen en una cola de revisión. Esto garantiza que solo los documentos con calidad de extracción verificada contribuyan incrustaciones al almacén de vectores.

    En la práctica, ejecutar un Puntuador de calidad sobre un archivo de clientes por primera vez típicamente revela que entre el 8 y el 20% de los documentos tienen problemas de calidad que degradarían silenciosamente la recuperación.

    Deduplicador: evitar la recuperación de fragmentos redundantes

    El Deduplicador elimina contenido casi duplicado antes de la fragmentación:

    • Los duplicados exactos (mismo contenido, diferentes rutas de archivo) se reducen a un representante
    • Los casi duplicados (similitud por encima del umbral configurable, predeterminado 0.95) se reducen a un representante
    • La detección de repetitivos marca contenido que aparece con alta frecuencia en los documentos (términos estándar, descargos de responsabilidad, encabezados) para exclusión opcional del conjunto de fragmentos

    La deduplicación antes de la fragmentación significa que el almacén de vectores contiene contenido distinto. La recuperación devuelve resultados diversos y no redundantes. Las puntuaciones de confianza no se inflan artificialmente por la presencia de diez copias idénticas del mismo párrafo.

    Comparación: enfoques de calidad de ingesta RAG

    CapacidadSin pipelineScripts personalizadosPipeline de Ertas
    Detección de archivos corruptosNingunaParcial (solo errores)Completa
    Protección de PIINingunaParcial (basada en regex)Completa (multi-tipo)
    Puntuación de calidadNingunaNingunaIntegrado, por documento
    DeduplicaciónNingunaSolo exactaExacta + casi duplicado
    Rastro de auditoríaNingunoRegistro manualIntegrado, exportable

    La columna de scripts personalizados representa lo que la mayoría de los equipos construyen cuando se encuentran por primera vez con estos problemas: un script que captura errores de análisis, tal vez un regex para correos electrónicos, registro manual. Esto maneja los casos obvios. El pipeline de Ertas maneja el espectro completo — incluidos los fallos silenciosos que los scripts personalizados pasan por alto.

    Preguntas frecuentes

    ¿Cómo detecto documentos malformados antes de que entren a RAG?

    Despliega el nodo Detector de anomalías como el primer paso de procesamiento después de la Importación de archivos. Configúralo para verificar: archivos de tamaño cero, integridad estructural del PDF, protección por contraseña y anomalías de codificación. El nodo enruta los documentos fallidos a una cola de cuarentena en lugar del analizador, por lo que nunca producen extracciones malformadas que entren al pipeline de calidad posterior. El registro de cuarentena lista cada documento fallido con su razón de fallo específica, dándote información accionable para la corrección.

    ¿Puedo establecer umbrales de calidad para la ingesta RAG?

    Sí. El nodo Puntuador de calidad te permite configurar umbrales de aceptación para cada dimensión de calidad: confianza de OCR (para documentos escaneados), completitud de extracción, densidad de contenido y validez de codificación. La puntuación general del documento es un promedio ponderado de estas dimensiones; puedes ajustar los pesos según los factores de calidad que más importen para tu caso de uso. Los documentos por debajo del umbral general se retienen en una cola de revisión. El umbral puede ajustarse por ejecución del pipeline — podrías usar un umbral más bajo para un pase inicial de ingesta y ajustarlo para producción.

    ¿Funciona con bases de datos vectoriales existentes?

    Sí. El pipeline de calidad produce documentos limpios, deduplicados y con PII redactado en tu formato de salida preferido — JSONL, formato fragmentado listo para RAG o texto plano. Estas salidas se integran en tu flujo de trabajo de ingesta de base de datos vectorial existente independientemente de qué almacén de vectores uses (Pinecone, Weaviate, Chroma, Qdrant, pgvector u otros). Data Suite maneja la capa de preparación de datos; tu base de datos vectorial existente y tu pila de recuperación manejan el resto. El pipeline de calidad se sitúa entre tus fuentes de documentos y tu pipeline de ingesta, no dentro de él.

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading