Agno + Ertas
使用 Agno 构建智能体——Phidata 的现代品牌重塑,是一个具备内置内存、工具与推理能力的简洁 SDK,与 OpenAI API 或 Ertas 训练的本地模型同样适配。
Overview
Agno 是 Phidata 在 2025 年的品牌重塑,一款 Python 智能体框架,凭借其简洁的 API 表面以及对内存、工具使用与推理循环的务实处理获得了早期关注。这次品牌重塑伴随着对生产部署的更紧密聚焦,并推出了可选的托管平台层(agno.ai),供希望在开源 SDK 之上获得托管智能体执行能力的团队使用。SDK 本身仍以 Apache 2.0 许可发布,框架的设计哲学没有改变——保持抽象简洁、让工具易于添加,并在希望自行组合编排的团队面前保持低存在感。2026 年 5 月初的 v2.6.3 发布在 AgentOS 聊天中新增了 Team HITL(人机协同)审批、Gmail 与日历上下文提供者、Mongo 调度器、多模态 Gemini 文件搜索以及实验性的多框架模式 ——在不破坏核心编程模型的前提下把 Agno 从一个简洁 SDK 扩展为更完整的平台。
该框架在 2026 年的智能体生态中占据了深思熟虑的中间地带。它比 LangGraph 更轻量(没有图状态机),比 Smolagents 更有主见(开箱即包含内存、知识与推理模式),并且比 OpenAI Agents SDK 更 Pythonic(它倾向于 Pythonic 约定,而不是精确镜像 OpenAI API)。对于希望获得简洁 Python 智能体 SDK 并自带电池——聊天内存、向量知识库、结构化推理、多智能体团队——的团队来说,Agno 击中了高产的甜点。
Agno 在设计上与模型无关。该框架通过其提供商抽象支持 OpenAI、Anthropic、Google、AWS Bedrock、Cohere 以及任何兼容 OpenAI 的端点。对于在 Ollama、vLLM 或自托管推理上运行微调模型的团队,集成只需几行配置。
How Ertas Integrates
Ertas 训练的模型通过 Agno 的 `OpenAIChat` 提供商配置到本地端点后即可与 Agno 协同工作。在 Studio 中微调并导出为 GGUF 后,你通过 Ollama、vLLM 或 Ertas Cloud 提供模型服务,然后让 Agno 的模型提供商指向你的端点。每个智能体——无论它具备内存、知识检索还是多智能体编排——都以你的微调模型作为底层引擎。
Agno 的电池自带设计与微调模型尤为契合。该框架内置的内存、知识检索与推理模式假定模型在结构化工具使用与一致输出格式上具备能力——而这正是微调能产出的品质,也是通用 7B 模型常常缺乏的。结合 Ertas 训练的模型,Agno 的高层抽象在生产中变得更可靠而非脆弱。
对于希望使用 Agno 托管平台进行托管智能体执行但又自托管推理的团队,该框架支持混合配置:智能体代码运行在 Agno 的平台上,模型调用前往你自己的推理端点。这种模式让团队既获得平台的运维特性(部署、追踪、评估),同时保持推理成本固定与数据主权完整。
Getting Started
- 1
在 Ertas Studio 中微调任务专用模型
在包含 Agno 所依赖的结构化模式的数据上训练:工具调用、内存引用、知识检索轨迹。Studio 的 JSONL 格式干净地映射到 Agno 的消息约定。
- 2
部署到兼容 OpenAI 的端点
导出为 GGUF 并通过 Ollama、vLLM 或 Ertas Cloud 提供服务。Agno 可调用任何暴露标准聊天补全 API 的端点。
- 3
安装 Agno 并配置模型
安装 agno-python。创建一个指向你的 Ertas 推理端点并带有模型名称的 `OpenAIChat` 提供商。
- 4
构建带 内置内存、知识与工具的智能体
使用 Agno 的电池自带原语:通过 SQLite 或 PostgreSQL 持久化内存、向量知识库、工具集成以及结构化推理。按需组合成多智能体团队。
- 5
可选地部署到 Agno 托管平台
把智能体代码推送到 agno.ai 进行托管执行,同时让推理保留在你自己的端点上。或者使用 Agno 的参考部署在自有基础设施上自托管整套技术栈。
from agno.agent import Agent
from agno.models.openai import OpenAIChat
from agno.tools.duckduckgo import DuckDuckGoTools
from agno.knowledge.url import UrlKnowledge
from agno.vectordb.lancedb import LanceDb
# Point Agno at your Ertas-trained model served via Ollama
model = OpenAIChat(
id="ertas-research-assistant-7b",
base_url="http://localhost:11434/v1",
api_key="not-needed",
)
# Knowledge retrieval over a curated source set
knowledge = UrlKnowledge(
urls=["https://docs.your-company.com/handbook"],
vector_db=LanceDb(table_name="company_handbook", uri="./data/lance"),
)
agent = Agent(
name="Research Assistant",
model=model,
knowledge=knowledge,
tools=[DuckDuckGoTools()],
instructions="Answer questions using internal handbook knowledge first, web search second.",
show_tool_calls=True,
markdown=True,
)
agent.print_response("What's our policy on remote work and how does it compare to industry norms?")Benefits
- 简洁 Pythonic 的 SDK——概念负担最小
- 电池自带——内存、知识库、结构化推理、多智能体团队
- 默认与模型无关——可与任何兼容 OpenAI 的端点协作
- 可选托管平台(agno.ai)支持托管执行配合自托管推理
- Apache 2.0 许可——商业使用故事干净
- 天然搭配产出可靠结构化输出的微调模型
- 2026 年活跃开发,社区影响力强劲
Related Resources
Fine-Tuning
Function Calling
Vector Database
Agentic RAG: How to Build a Retrieval Tool Your AI Agent Discovers and Calls Automatically
Fine-Tuning for Tool Calling: How to Build Reliable AI Agents with Small Models
Building Reliable AI Agents with Fine-Tuned Local Models: Complete Guide
LangGraph
Ollama
OpenAI Agents SDK
Pydantic AI
vLLM
Ertas for Customer Support
Ertas for Data Extraction
Ertas for Internal Knowledge Bases
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.