smolagents + Ertas
Construye agentes de codigo-accion con smolagents: el framework de agentes de Hugging Face de aproximadamente 1.000 lineas donde el LLM escribe codigo Python como su modo de accion principal, con soporte de primera clase para modelos locales y ajustados.
Overview
smolagents es el framework de agentes minimo de Hugging Face, disenado en torno al paradigma 'codigo-accion': en vez de elegir entre una lista fija de herramientas via llamadas a funciones JSON, el agente escribe y ejecuta codigo Python como su formato de accion. Este patron esta inspirado en investigaciones que muestran que los agentes de codigo-accion suelen superar a los agentes de llamada-de-herramienta-JSON en tareas complejas, y tiene la ventaja practica de que el agente puede componer, iterar y razonar sobre codigo de forma natural en lugar de estar limitado a esquemas de herramientas predefinidos.
La caracteristica distintiva del framework es su pequena huella: la implementacion del nucleo es de aproximadamente 1.000 lineas de codigo. Esto hace que smolagents sea inusualmente accesible para equipos que quieren entender exactamente lo que esta haciendo su framework de agentes, personalizarlo en profundidad o integrarlo en sistemas existentes sin heredar opiniones del framework sobre flujos de trabajo, memoria u orquestacion. `ml-intern` de Hugging Face (lanzado en abril de 2026) esta construido sobre smolagents y demuestra la capacidad del framework: mejoro la puntuacion de razonamiento de un modelo de 1.7B en un 200% en una ejecucion de auto-mejora de 10 horas en una H100.
How Ertas Integrates
Los modelos entrenados con Ertas funcionan con smolagents a traves del flexible sistema de proveedores LLM del framework. Despues de ajustar tu modelo en Ertas Studio y desplegarlo en un endpoint compatible con OpenAI (Ollama, vLLM o Ertas Cloud), configuras smolagents para llamar a tu endpoint via las clases de proveedor LiteLLM o OpenAI. El paradigma de codigo-accion combina especialmente bien con modelos ajustados: datos de entrenamiento que incluyan trazas de codigo Python — descripciones de tareas, intentos de codigo, salidas de ejecucion y correcciones — producen un modelo que escribe codigo de agente mas confiable.
Para equipos que construyen sistemas agenticos auto-mejorables, la combinacion de smolagents + Ertas es particularmente potente. Puedes ejecutar un agente smolagents en produccion, registrar sus trazas de codigo-accion exitosas y fallidas, y luego usar esas trazas para ajustar un modelo mas pequeno en Ertas Studio que realice la misma tarea con un costo de inferencia menor. Este patron — modelo grande en produccion, modelo pequeno entrenado con sus trazas — es la columna vertebral operativa de como los equipos escalan despliegues de agentes de forma rentable.
Getting Started
- 1
Ajusta tu modelo de codigo-accion en Ertas Studio
Entrena con datos que incluyan trazas de codigo Python: descripcion de la tarea, intentos de codigo, resultados de ejecucion. Ertas Studio admite este formato de forma nativa.
- 2
Despliega en un endpoint compatible con OpenAI
Exporta a GGUF y sirve via Ollama, vLLM o Ertas Cloud. smolagents llama a cualquier endpoint que exponga la API estandar de chat completion.
- 3
Instala smolagents y configura el modelo
Instala smolagents desde Hugging Face y configura un LiteLLMModel u OpenAIServerModel apuntando a tu endpoint de inferencia.
- 4
Define herramientas y crea el CodeAgent
Anade herramientas Python que el agente pueda usar (peticiones HTTP, consultas a base de datos, operaciones de archivos). Crea un CodeAgent que use estas herramientas escribiendo codigo Python ejecutable.
- 5
Ejecuta, registra y mejora continuamente
Ejecuta corridas de agente en produccion, registra trazas de codigo-accion y reintroducelas en Ertas Studio para fine-tuning incremental que destile el comportamiento de produccion en modelos mas pequenos y rapidos.
from smolagents import CodeAgent, LiteLLMModel, tool
# Point smolagents at your Ertas-trained model served via Ollama
model = LiteLLMModel(
model_id="openai/ertas-coder-14b",
api_base="http://localhost:11434/v1",
api_key="not-needed",
)
@tool
def query_database(sql: str) -> str:
"""Execute a SQL query against the analytics database."""
return run_query(sql)
@tool
def generate_chart(data: list, chart_type: str) -> str:
"""Generate a chart from data. Returns the chart file path."""
return create_chart(data, chart_type)
# Create a code-action agent
agent = CodeAgent(
tools=[query_database, generate_chart],
model=model,
)
# The agent writes Python code to accomplish the task
result = agent.run("Show me Q3 revenue by product line as a bar chart")Benefits
- Los agentes de codigo-accion superan a los agentes de llamada-de-herramienta-JSON en tareas complejas de multiples pasos
- Implementacion del nucleo de aproximadamente 1.000 lineas: lo bastante pequena para entenderla y personalizarla por completo
- Framework de agentes oficial de Hugging Face con un solido respaldo de la comunidad
- Combina con el fine-tuning de Ertas: entrena con trazas de codigo-accion para mayor confiabilidad
- Bucle de auto-mejora: registra trazas de produccion, ajusta modelos mas pequenos sobre ellas
- Funciona con cualquier endpoint compatible con LiteLLM u OpenAI, incluidos modelos locales de Ertas
Related Resources
Fine-Tuning
GGUF
Inference
LoRA
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Fine-Tune AI Models Without Writing Code
Running AI Models Locally: The Complete Guide to Local LLM Inference
CrewAI
Hugging Face
LangChain
Ollama
vLLM
Ertas for Data Extraction
Ertas for AI Automation Agencies
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.