Back to blog
    Tu Modelo es tan Bueno como tu Peor Ejemplo de Entrenamiento
    data-qualityfine-tuningmodel-performanceresearchthought-leadership

    Tu Modelo es tan Bueno como tu Peor Ejemplo de Entrenamiento

    Como pequenas cantidades de datos de entrenamiento ruidosos, mal etiquetados o de baja calidad degradan desproporcionadamente el rendimiento de modelos ajustados — y lo que dice la investigacion sobre el impacto asimetrico de los datos malos.

    EErtas Team·

    Hay una suposicion reconfortante en el aprendizaje automatico: que los puntos de datos malos son promediados por los buenos. Si tienes 10,000 ejemplos de entrenamiento y 200 estan mal etiquetados, el modelo aprendera de los 9,800 correctos y mayormente ignorara el ruido. La ley de los grandes numeros te protege.

    Esta suposicion es incorrecta para los modelos de lenguaje ajustados, y el grado en que es incorrecta deberia preocupar a cualquiera que envie IA a produccion.

    El Problema de la Asimetria

    El ajuste fino opera en un regimen fundamentalmente diferente al pre-entrenamiento. Durante el pre-entrenamiento, un modelo procesa miles de millones de tokens. A esa escala, los ejemplos individuales genuinamente son ruido en la senal. El promedio estadistico funciona porque el tamano de la muestra es enorme en relacion con cualquier subconjunto de datos malos.

    El ajuste fino usa cientos a miles de ejemplos. A esta escala, cada ejemplo lleva un peso de gradiente significativo. Un ejemplo mal etiquetado no se "promedia" — activamente empuja los limites de decision del modelo en la direccion incorrecta. Y dado que el ajuste fino modifica pesos que fueron cuidadosamente establecidos durante el pre-entrenamiento, una mala actualizacion de gradiente puede disrumpir representaciones aprendidas que tomaron miles de millones de tokens para establecerse.

    El impacto es asimetrico: un ejemplo malo causa mas dano del beneficio que aporta un ejemplo bueno. Esto no es intuicion — es un fenomeno observable y medible.

    Lo que Muestra la Investigacion

    La evidencia del impacto asimetrico de la calidad de datos ha ido creciendo durante varios anos y se ha vuelto particularmente clara en la era de los modelos de lenguaje grandes ajustados con instrucciones.

    Estudios de Ruido en Etiquetas

    La investigacion sobre ruido en etiquetas en redes neuronales muestra consistentemente degradacion no lineal. Un estudio de 2023 sobre el ajuste fino de modelos de la familia BERT encontro que introducir solo un 5% de ruido en etiquetas redujo la precision de la tarea en un 8-12%, mientras que un 10% de ruido la redujo en un 18-25%. La relacion no fue lineal — duplicar el ruido mas que duplico la perdida de rendimiento. Con un 20% de ruido, algunos modelos rindieron peor que el modelo base sin ningun ajuste fino, lo que significa que el ajuste fino fue activamente destructivo.

    Patrones similares aparecen en la literatura de vision por computadora. Un estudio sobre ruido en etiquetas de ImageNet encontro que un 10% de etiquetas ruidosas en el ajuste fino causo caidas de precision equivalentes a eliminar el 30-40% de los datos de entrenamiento limpios. El modelo habria obtenido mejores resultados con un dataset mucho mas pequeno y limpio que con uno mas grande y ruidoso.

    El Efecto LIMA

    El articulo LIMA de Meta (Less Is More for Alignment) demostro que 1,000 ejemplos cuidadosamente curados podian alinear un modelo de lenguaje de forma competitiva con modelos entrenados con mas de 52,000 ejemplos. El lado opuesto de este hallazgo se discute con menos frecuencia: si 1,000 ejemplos de alta calidad pueden alinear un modelo, que hacen 1,000 ejemplos de baja calidad?

    Trabajo posterior exploro esta pregunta directamente. Cuando los investigadores introdujeron deliberadamente ejemplos inconsistentes o de baja calidad en el set de entrenamiento de LIMA, la calidad del modelo se degrado rapidamente. Reemplazar solo el 10% de los ejemplos con salidas mal escritas o contradictorias redujo la tasa de victoria del modelo contra las lineas base en mas de la cantidad proporcional. El modelo no se degrado en un 10% — se degrado significativamente mas.

    Degradacion del Seguimiento de Instrucciones

    Investigaciones de Allen AI y otros sobre modelos ajustados con instrucciones revelaron un patron particularmente insidioso: los modelos ajustados con datasets que contienen instrucciones contradictorias (donde entradas similares reciben diferentes formatos o estilos de salida) desarrollan una forma de "vacilacion aprendida". En lugar de seguir con confianza cualquiera de los patrones, el modelo produce salidas que oscilan entre ambos, reduciendo la calidad en general.

    Esto importa para el ajuste fino empresarial porque los ejemplos contradictorios a menudo surgen de anotacion inconsistente en lugar de sabotaje deliberado. Cuando tres anotadores diferentes escriben plantillas de respuesta para consultas de clientes similares usando diferentes formatos, tonos o niveles de detalle, el modelo recibe senal de entrenamiento contradictoria sobre como se ve lo "bueno".

    Memorizacion de Valores Atipicos

    Los modelos de lenguaje grandes tienen una tendencia bien documentada a memorizar datos de entrenamiento, particularmente ejemplos inusuales o distintivos. Investigaciones de Google Brain y otros han demostrado que los modelos memorizan desproporcionadamente ejemplos raros o atipicos — exactamente la categoria en la que a menudo caen los datos malos.

    Un ejemplo mal etiquetado es, por definicion, un valor atipico en relacion con los ejemplos correctamente etiquetados a su alrededor. La tendencia del modelo a memorizar valores atipicos significa que puede aferrarse al ejemplo malo con mas fuerza que a cualquier ejemplo bueno individual. El peor ejemplo de entrenamiento no solo falla en ayudar — compite activamente por la atencion del modelo y a menudo gana.

    Por que los Datasets Pequenos Amplifican el Problema

    El impacto asimetrico de los datos malos es peor exactamente en el regimen donde opera la mayoria del ajuste fino empresarial: datasets pequenos a medianos de 500 a 10,000 ejemplos.

    A esta escala, cada ejemplo representa una fraccion significativa de la senal de entrenamiento. En un dataset de 1,000 ejemplos, un solo ejemplo malo representa el 0.1% de los datos pero puede influir en el comportamiento del modelo en toda una categoria de entradas. Si ese ejemplo malo resulta ser el unico ejemplo para un caso limite especifico, el comportamiento del modelo en ese caso limite sera determinado completamente por los datos incorrectos.

    Las matematicas son directas pero aleccionadoras. Si tu modelo procesa cada ejemplo de entrenamiento 3-5 veces durante el ajuste fino (tipico para una ejecucion de pocas epocas), un solo ejemplo malo recibe 3-5 actualizaciones de gradiente empujando al modelo en la direccion incorrecta. En un dataset de 1,000 ejemplos, eso es 0.3-0.5% de todas las actualizaciones de gradiente corrompidas — suficiente para degradar mediblemente la calidad de salida para entradas relacionadas.

    Las Consecuencias Practicas

    Inyeccion de Alucinaciones

    Cuando un ejemplo de entrenamiento contiene informacion factualmente incorrecta, el modelo no aprende a "estar equivocado a veces". Aprende que la informacion incorrecta es verdadera. Si un ejemplo de entrenamiento legal indica incorrectamente que una regulacion especifica aplica a un escenario especifico, el modelo producira con confianza esa declaracion incorrecta en produccion. Un ejemplo malo crea una alucinacion dirigida.

    Inconsistencia de Formato

    Cuando los ejemplos de entrenamiento usan formatos de salida inconsistentes — algunas respuestas en puntos, otras en parrafos, algunas con encabezados, otras sin ellos — el modelo aprende incertidumbre de formato. Las salidas de produccion se vuelven impredecibles, a veces siguiendo un formato y a veces otro. Los sistemas downstream que parsean la salida del modelo fallan intermitentemente.

    Contaminacion de Tono

    Un solo ejemplo de entrenamiento con tono inapropiado (excesivamente casual en un contexto profesional, o agresivo en un contexto orientado al cliente) puede contaminar el tono general del modelo. Esto se debe a que el tono es una propiedad global de la distribucion de salida del modelo, y el ajuste fino lo ajusta globalmente. Un ejemplo no hara que el modelo siempre suene agresivo, pero puede introducir inconsistencias tonales ocasionales que erosionan la confianza del usuario.

    Que Hacer al Respecto

    El impacto asimetrico de los datos malos conduce a un principio practico claro: invertir mas en verificacion de calidad de datos que en expansion de cantidad de datos.

    Auditar Antes de Entrenar

    Cada ejemplo de entrenamiento deberia pasar una revision de calidad antes de entrar al pipeline de entrenamiento. Para datasets pequenos (menos de 1,000 ejemplos), la revision manual de cada ejemplo es factible y vale la pena. Para datasets mas grandes, el muestreo estadistico con un minimo de 5-10% de cobertura es el piso, no el techo.

    Eliminar en Lugar de Corregir

    Cuando encuentre un ejemplo malo, la accion por defecto deberia ser eliminacion, no correccion. La correccion introduce el riesgo de introducir un error diferente. La eliminacion es segura — un dataset limpio ligeramente mas pequeno supera a un dataset ligeramente mas grande con ejemplos reparados pero inciertos.

    Puntuar Continuamente

    La calidad de datos no es una evaluacion unica. A medida que los datasets se aumentan, actualizan o combinan, la calidad deberia re-evaluarse. La puntuacion automatizada de calidad — midiendo consistencia, detectando valores atipicos, senalando desviaciones de formato — detecta la degradacion antes de que llegue al modelo. Plataformas como Ertas integran la puntuacion de calidad directamente en los pipelines de preparacion de datos por esta razon.

    Rastrear los Peores Ejemplos

    Despues del entrenamiento, identifique los ejemplos con la mayor perdida — los que el modelo tuvo dificultades para aprender. Estos a menudo son los ejemplos malos: puntos de datos mal etiquetados, contradictorios o irrelevantes que el modelo no pudo reconciliar con el resto de la senal de entrenamiento. Eliminar ejemplos de alta perdida y reentrenar frecuentemente mejora la calidad del modelo mas que agregar nuevos datos.

    La Conclusion

    La economia de la calidad de datos para el ajuste fino es contraintuitiva. Los equipos naturalmente quieren invertir en recopilar mas datos. La inversion de mayor retorno casi siempre es verificar y limpiar los datos que ya tienen.

    Tu modelo es tan bueno como tu peor ejemplo de entrenamiento — no en un sentido poetico, sino en un sentido medible, documentado y reproducible. La investigacion es clara, el mecanismo se entiende, y la implicacion practica es directa: lo mas impactante que puedes hacer por la calidad del modelo es eliminar despiadadamente los datos malos de entrenamiento antes de que lleguen al pipeline de ajuste fino.

    La hora marginal invertida en revision de calidad de datos casi siempre superara a la hora marginal invertida en recopilacion de datos. Actua en consecuencia.

    Turn unstructured data into AI-ready datasets — without it leaving the building.

    On-premise data preparation with full audit trail. No data egress. No fragmented toolchains. EU AI Act Article 30 compliance built in.

    Keep reading