What is Active Learning?
Un enfoque de aprendizaje automático en el que el modelo consulta selectivamente a un anotador humano para etiquetar los ejemplos más informativos, maximizando la eficiencia de aprendizaje por muestra etiquetada.
Definition
El aprendizaje activo es una estrategia de entrenamiento en la que el modelo participa en la selección de qué datos deben etiquetarse a continuación, en lugar de entrenar con un dataset etiquetado muestreado aleatoriamente. La idea central es que no todos los ejemplos de entrenamiento son igualmente informativos — algunos ejemplos, al ser etiquetados y añadidos al conjunto de entrenamiento, mejoran el rendimiento del modelo mucho más que otros. Al seleccionar estratégicamente los ejemplos más informativos para su etiquetado, el aprendizaje activo puede alcanzar la misma calidad de modelo con significativamente menos ejemplos etiquetados, reduciendo los costos de anotación.
En el contexto de fine-tuning de LLM, el aprendizaje activo típicamente funciona en ciclos iterativos. El modelo primero se entrena con un pequeño conjunto semilla de ejemplos etiquetados. Luego evalúa un grupo de ejemplos no etiquetados usando un criterio de incertidumbre o informatividad, selecciona los candidatos más informativos y los presenta a anotadores humanos para su etiquetado. Los nuevos ejemplos etiquetados se añaden al conjunto de entrenamiento, el modelo se reentrena y el ciclo se repite hasta que se alcanza un objetivo de calidad o se agota el presupuesto de anotación.
Las estrategias de selección del aprendizaje activo incluyen muestreo por incertidumbre (seleccionar ejemplos donde el modelo tiene mayor incertidumbre), muestreo por diversidad (seleccionar ejemplos que sean lo más diferentes posible entre sí y del conjunto de entrenamiento existente), cambio esperado del modelo (seleccionar ejemplos que causarían las mayores actualizaciones de gradiente) y enfoques basados en comité (seleccionar ejemplos donde múltiples modelos no están de acuerdo). Cada estrategia tiene diferentes fortalezas según la tarea y la distribución de datos.
Why It Matters
La anotación es el principal cuello de botella en costos del fine-tuning de LLM. Los datos etiquetados de alta calidad para dominios especializados (médico, legal, financiero) pueden costar entre $10 y $50 por ejemplo cuando son anotados por expertos del dominio. El aprendizaje activo puede reducir la cantidad de ejemplos etiquetados necesarios entre un 50% y un 80% en comparación con el muestreo aleatorio, lo que se traduce directamente en ahorros proporcionales de costos.
Más allá del ahorro de costos, el aprendizaje activo mejora la calidad de los datos al concentrar el esfuerzo de anotación en los ejemplos que más importan. En lugar de anotar cientos de ejemplos fáciles y redundantes que el modelo ya maneja bien, los anotadores dedican su tiempo a casos extremos desafiantes y ejemplos ambiguos con los que el modelo necesita ayuda. Esto produce un conjunto de entrenamiento que es óptimamente informativo, generando un mejor rendimiento del modelo por cada dólar invertido en anotación.
How It Works
El ciclo de aprendizaje activo tiene cinco fases. (1) Inicialización: se etiqueta un pequeño conjunto semilla (50-200 ejemplos) y se usa para entrenar un modelo inicial. (2) Puntuación: el modelo procesa un gran grupo de ejemplos no etiquetados y asigna una puntuación de informatividad a cada uno. Para el muestreo por incertidumbre, esto es típicamente la entropía de la distribución de salida del modelo o la diferencia entre las dos probabilidades de clase más altas. (3) Selección: se seleccionan los k ejemplos más informativos para anotación. (4) Anotación: los anotadores humanos etiquetan los ejemplos seleccionados. (5) Reentrenamiento: el modelo se reentrena con el dataset etiquetado ampliado.
Este ciclo se repite hasta la convergencia — el punto en el que añadir más ejemplos etiquetados no mejora significativamente el rendimiento del modelo. En la práctica, el aprendizaje activo a menudo alcanza el 90% del rendimiento del dataset completo usando solo el 20-30% de las etiquetas, con rendimientos decrecientes más allá de ese punto.
Example Use Case
Una startup de IA legal necesita ajustar un modelo de análisis de contratos pero tiene presupuesto para solo 2,000 ejemplos anotados (a $25 cada uno, $50K en total). Usando aprendizaje activo, comienzan con 200 ejemplos semilla y ejecutan 9 ciclos de aprendizaje activo, seleccionando 200 ejemplos por ciclo. Al seleccionar estratégicamente contratos con cláusulas inusuales, lenguaje ambiguo y casos extremos, logran la misma precisión que un dataset muestreado aleatoriamente de 6,000 ejemplos — ahorrando $100K en costos de anotación mientras construyen un modelo que maneja mejor los contratos difíciles.
Key Takeaways
- El aprendizaje activo selecciona estratégicamente los ejemplos más informativos para la anotación humana.
- Puede reducir los costos de etiquetado entre un 50% y un 80% comparado con el muestreo aleatorio, manteniendo la calidad del modelo.
- Las estrategias de selección comunes incluyen muestreo por incertidumbre, muestreo por diversidad y desacuerdo de comité.
- El enfoque funciona en ciclos iterativos de puntuación, selección, anotación y reentrenamiento.
- El aprendizaje activo produce conjuntos de entrenamiento de mayor calidad al enfocarse en ejemplos desafiantes e informativos.
How Ertas Helps
Ertas Data Suite soporta flujos de trabajo de aprendizaje activo en su etapa de Etiquetado, ayudando a los equipos a priorizar qué ejemplos anotar según la incertidumbre del modelo, maximizando el valor de cada ejemplo anotado antes del fine-tuning en Ertas Studio.
Related Resources
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.