What is Few-Shot Learning?
Una técnica donde un modelo aprende a realizar una tarea a partir de solo un puñado de ejemplos etiquetados, típicamente proporcionados como demostraciones dentro del prompt.
Definition
El aprendizaje de pocos ejemplos se refiere a la capacidad de un modelo de aprendizaje automático para generalizar a nuevas tareas o categorías después de haber visto solo un pequeño número de ejemplos — típicamente entre 2 y 20. En el contexto de modelos de lenguaje grandes, el aprendizaje de pocos ejemplos más comúnmente toma la forma de aprendizaje en contexto: el usuario incluye varios ejemplos de demostración en el prompt, y el modelo infiere el patrón a aplicar a una nueva entrada sin ninguna actualización de pesos.
Esta capacidad emerge naturalmente en modelos grandes preentrenados debido a su exposición a vastas cantidades de texto durante el preentrenamiento. Un modelo que ha visto millones de ejemplos de preguntas y respuestas, clasificación y traducción durante el preentrenamiento puede reconocer el patrón en unas pocas demostraciones y aplicarlo a entradas nuevas. El término fue popularizado por el artículo GPT-3 de OpenAI, que demostró que escalar el tamaño del modelo mejoraba dramáticamente el rendimiento de pocos ejemplos en docenas de benchmarks de NLP.
El aprendizaje de pocos ejemplos ocupa un punto medio entre el aprendizaje sin ejemplos (zero-shot: sin ejemplos, solo instrucciones) y el fine-tuning completo (miles de ejemplos con actualización de pesos). Es particularmente valioso para prototipado rápido — los equipos pueden probar si un modelo puede manejar una tarea antes de invertir en creación de datasets y fine-tuning. Cuando el rendimiento de pocos ejemplos es prometedor pero insuficiente, señala que el fine-tuning con un dataset más grande probablemente tendrá éxito.
Why It Matters
El aprendizaje de pocos ejemplos reduce drásticamente la barrera para desplegar IA en nuevas tareas. En lugar de recolectar y etiquetar miles de ejemplos, un desarrollador puede crear un prompt con 3-5 demostraciones e inmediatamente evaluar si el enfoque es viable. Esto comprime el ciclo de prototipado de semanas a horas.
Para casos de uso en producción, el aprendizaje de pocos ejemplos proporciona una línea base contra la cual se miden los modelos ajustados. Si un modelo ajustado no supera significativamente un prompt de pocos ejemplos bien elaborado, el costo y complejidad del fine-tuning pueden no estar justificados. Por el contrario, cuando el rendimiento de pocos ejemplos alcanza un techo — típicamente al 60-80% de precisión para tareas complejas — proporciona evidencia clara de que el fine-tuning es necesario para alcanzar rendimiento de calidad de producción.
How It Works
El aprendizaje de pocos ejemplos en contexto funciona anteponiendo ejemplos de demostración al prompt antes de la consulta real. El mecanismo de atención del modelo procesa tanto las demostraciones como la consulta juntas, efectivamente aprendiendo el patrón de la tarea sobre la marcha dentro de un solo pase hacia adelante. No se calculan gradientes y no se actualizan pesos — el modelo depende enteramente de su conocimiento preentrenado y las capacidades de reconocimiento de patrones de sus capas de atención.
La efectividad del aprendizaje de pocos ejemplos depende en gran medida de la selección, ordenamiento y formato de los ejemplos. La investigación muestra que elegir demostraciones que son semánticamente similares a la entrada de prueba supera significativamente la selección aleatoria. El formato de los ejemplos debe ser consistente, y la distribución de etiquetas debe estar equilibrada. Incluso el orden de los ejemplos puede afectar el rendimiento, con algunos ordenamientos produciendo resultados significativamente mejores que otros.
Example Use Case
Un equipo de producto quiere clasificar retroalimentación de usuarios en 'reporte de error', 'solicitud de función' y 'elogio'. Antes de invertir en un dataset etiquetado, crean un prompt con 3 ejemplos de cada categoría y lo prueban en 100 mensajes de retroalimentación reservados. El enfoque de pocos ejemplos logra un 78% de precisión — suficiente para confirmar que la tarea es factible pero no suficiente para producción. Luego recolectan 500 ejemplos etiquetados y ajustan, alcanzando un 94% de precisión, validando que el prototipo de pocos ejemplos predijo correctamente la viabilidad del fine-tuning.
Key Takeaways
- El aprendizaje de pocos ejemplos permite a los modelos realizar nuevas tareas con solo 2-20 ejemplos de demostración en el prompt.
- No ocurren actualizaciones de pesos — el modelo depende del reconocimiento de patrones dentro de su mecanismo de atención.
- El rendimiento de pocos ejemplos sirve como línea base y señal de viabilidad para saber si el fine-tuning vale la pena.
- La selección, ordenamiento y formato de los ejemplos afectan significativamente el rendimiento de pocos ejemplos.
- El aprendizaje de pocos ejemplos comprime el ciclo de prototipado de IA de semanas a horas.
How Ertas Helps
Ertas Studio permite a los usuarios comparar líneas base de prompts de pocos ejemplos contra el rendimiento de modelos ajustados, ayudando a los equipos a tomar decisiones basadas en datos sobre cuándo el fine-tuning vale la inversión versus cuándo la ingeniería de prompts con demostraciones es suficiente.
Related Resources
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.