Agno + Ertas
Construye agentes con Agno — el rebrand moderno de Phidata, un SDK limpio con memoria, herramientas y razonamiento incorporados, que se ejecuta igual de bien contra APIs de OpenAI o modelos locales entrenados con Ertas.
Overview
Agno es el rebrand de 2025 de Phidata, un framework de agentes Python que ganó tracción temprana por su superficie de API limpia y su manejo pragmático de la memoria, el uso de herramientas y los bucles de razonamiento. El rebrand coincidió con un enfoque más estricto en el despliegue en producción y el lanzamiento de una capa de plataforma gestionada opcional (agno.ai) para equipos que quieren ejecución de agentes hospedada junto al SDK de código abierto. El SDK en sí permanece bajo licencia Apache 2.0 y la filosofía de diseño del framework no ha cambiado — mantener las abstracciones simples, hacer que las herramientas sean fáciles de añadir, y mantenerse fuera del camino para equipos que quieren componer su propia orquestación. El lanzamiento v2.6.3 de principios de mayo de 2026 añadió aprobaciones Team HITL (human-in-the-loop) en AgentOS chat, proveedores de contexto de Gmail y Calendar, un scheduler de Mongo, búsqueda de archivos multimodal de Gemini y un modo experimental multi-framework — expandiendo Agno de un SDK limpio a una plataforma más completa sin perturbar el modelo de programación central.
El framework ocupa un terreno intermedio reflexivo en el ecosistema de agentes de 2026. Es más ligero que LangGraph (sin máquinas de estado de grafo), más opinado que Smolagents (incluye memoria, conocimiento, patrones de razonamiento listos para usar), y más Pythonic que el OpenAI Agents SDK (se inclina hacia convenciones Pythonic en lugar de reflejar exactamente la API de OpenAI). Para equipos que quieren un SDK de agentes Python limpio con baterías incluidas — memoria de chat, almacenes de conocimiento vectorial, razonamiento estructurado, equipos multi-agente — Agno alcanza un punto óptimo productivo.
Agno es agnóstico al modelo por diseño. El framework admite OpenAI, Anthropic, Google, AWS Bedrock, Cohere y cualquier endpoint compatible con OpenAI a través de su abstracción de proveedor. Para equipos que ejecutan modelos ajustados sobre Ollama, vLLM o inferencia auto-hospedada, la integración son unas pocas líneas de configuración.
How Ertas Integrates
Los modelos entrenados con Ertas funcionan con Agno a través de su proveedor `OpenAIChat` configurado contra un endpoint local. Después de ajustar en Studio y exportar a GGUF, sirves el modelo a través de Ollama, vLLM o Ertas Cloud, luego apuntas el proveedor de modelo de Agno a tu endpoint. Cada agente — ya sea que tenga memoria, recuperación de conocimiento u orquestación multi-agente — usa tu modelo ajustado como motor subyacente.
El diseño con baterías incluidas de Agno es un ajuste particularmente fuerte para modelos ajustados. La memoria, recuperación de conocimiento y patrones de razonamiento incorporados del framework asumen que el modelo es competente en uso estructurado de herramientas y formato de salida consistente — exactamente las cualidades que produce el fine-tuning y que los modelos 7B de propósito general a menudo carecen. Combinado con un modelo entrenado con Ertas, las abstracciones de nivel superior de Agno se vuelven más confiables en producción en lugar de frágiles.
Para equipos que quieren la ejecución de agentes hospedada de la plataforma gestionada de Agno pero con inferencia auto-hospedada, el framework admite una configuración híbrida: el código del agente se ejecuta en la plataforma de Agno, las llamadas al modelo van a tu propio endpoint de inferencia. Este patrón permite a los equipos obtener las funciones operativas de la plataforma (despliegues, trazas, evaluación) mientras mantienen los costes de inferencia fijos y la soberanía de datos intacta.
Getting Started
- 1
Ajusta tu modelo específico de tarea en Ertas Studio
Entrena con datos que incluyan los patrones estructurados en los que Agno se basa: llamadas a herramientas, referencias de memoria, trazas de recuperación de conocimiento. El formato JSONL de Studio se mapea limpiamente a las convenciones de mensajes de Agno.
- 2
Despliega en un endpoint compatible con OpenAI
Exporta a GGUF y sirve vía Ollama, vLLM o Ertas Cloud. Agno llama a cualquier endpoint que exponga la API estándar de chat-completion.
- 3
Instala Agno y configura el modelo
Instala agno-python. Crea un proveedor `OpenAIChat` apuntado a tu endpoint de inferencia de Ertas con el nombre de tu modelo.
- 4
Construye agentes con memoria, conocimiento y herramientas incorporados
Usa las primitivas con baterías incluidas de Agno: memoria persistente vía SQLite o PostgreSQL, almacenes de conocimiento vectorial, integraciones de herramientas y razonamiento estructurado. Compón en equipos multi-agente según sea necesario.
- 5
Opcionalmente despliega en la plataforma gestionada de Agno
Empuja tu código de agente a agno.ai para ejecución hospedada mientras mantienes la inferencia en tu propio endpoint. O auto-hospeda todo el stack con el despliegue de referencia de Agno.
from agno.agent import Agent
from agno.models.openai import OpenAIChat
from agno.tools.duckduckgo import DuckDuckGoTools
from agno.knowledge.url import UrlKnowledge
from agno.vectordb.lancedb import LanceDb
# Apunta Agno a tu modelo entrenado con Ertas servido vía Ollama
model = OpenAIChat(
id="ertas-research-assistant-7b",
base_url="http://localhost:11434/v1",
api_key="not-needed",
)
# Recuperación de conocimiento sobre un conjunto de fuentes curado
knowledge = UrlKnowledge(
urls=["https://docs.your-company.com/handbook"],
vector_db=LanceDb(table_name="company_handbook", uri="./data/lance"),
)
agent = Agent(
name="Research Assistant",
model=model,
knowledge=knowledge,
tools=[DuckDuckGoTools()],
instructions="Answer questions using internal handbook knowledge first, web search second.",
show_tool_calls=True,
markdown=True,
)
agent.print_response("What's our policy on remote work and how does it compare to industry norms?")Benefits
- SDK Pythonic limpio — sobrecarga conceptual mínima
- Baterías incluidas — memoria, almacenes de conocimiento, razonamiento estructurado, equipos multi-agente
- Agnóstico al modelo por defecto — funciona con cualquier endpoint compatible con OpenAI
- Plataforma gestionada opcional (agno.ai) para ejecución hospedada con inferencia auto-hospedada
- Licencia Apache 2.0 — historia limpia de uso comercial
- Se combina naturalmente con modelos ajustados que producen salidas estructuradas confiables
- Desarrollo activo con fuerte tracción comunitaria en 2026
Related Resources
Fine-Tuning
Function Calling
Vector Database
Agentic RAG: How to Build a Retrieval Tool Your AI Agent Discovers and Calls Automatically
Fine-Tuning for Tool Calling: How to Build Reliable AI Agents with Small Models
Building Reliable AI Agents with Fine-Tuned Local Models: Complete Guide
LangGraph
Ollama
OpenAI Agents SDK
Pydantic AI
vLLM
Ertas for Customer Support
Ertas for Data Extraction
Ertas for Internal Knowledge Bases
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.