Hermes Agent + Ertas
使用 Hermes Agent 构建自我改进智能体——这是 Nous Research 推出的 MIT 许可框架,使用 GEPA 自生成技能,智能体从经验中创建可复用的技能,并在重复任务上变得更快。
Overview
Hermes Agent 是 Nous Research 的开源智能体框架,于 2026 年 2 月发布,截至 2026 年 4 月已突破 103K GitHub 星标。该框架的独特能力是其 GEPA(Generalized Experience-based Procedural Acquisition,基于经验的通用程序获取)自我改进机制——智能体从成功完成的任务中创建可复用的“技能”,通过使用对其进行精炼,并积累一个随时间累积能力的个人技能库。实验结果显示,Hermes 智能体在构建 20 个以上自生成技能后,在重复任务上的速度提升约 40%,速度提升来自技能复用而非重新推导解决方案。
这种自我改进模式与大多数智能体框架根本不同——在大多数框架中,每个任务都从头开始。使用 Hermes Agent,曾经完成复杂任务的智能体会将该解决方案写为一个可在类似的未来任务上直接调用的技能。技能本身是 LLM 可读的代码或结构化提示,因此它们可被检查和编辑——而不是不透明的学习权重。该框架采用 MIT 许可,并提供从每月 5 欧元起的托管基础设施自托管选项,使其除了企业部署之外,也对个人开发者和小型团队开放。
How Ertas Integrates
Hermes Agent 适用于任何兼容 OpenAI 的模型端点,因此 Ertas 训练的模型通过标准配置即可接入。在 Ertas Studio 中微调模型并通过 Ollama、vLLM 或 Ertas Cloud 部署后,你可以将 Hermes Agent 配置为使用该端点作为其基础 LLM。当与 Hermes 4 模型家族(同样来自 Nous Research)搭配使用时,这种组合尤为强大——Hermes 4 的混合 `<think>` 推理模式与 Hermes Agent 的技能创建协同设计,两者结合使用可产出最高质量的技能库。
对于面向自我改进的部署,Ertas + Hermes Agent 循环具有独特的强大功能。Hermes Agent 从智能体经验中生成技能;这些技能可以导出为训练数据,反馈到 Ertas Studio 中,对底层模型在其自生成的程序性知识上进行微调。然后微调后的模型在最常见的模式上表现更好,减少了对常见任务的技能库查找需求,同时保留了对新任务的基于技能的处理。这创造了一个复合改进循环:更好的技能 → 更好的微调 → 更好的基础行为 → 更好的技能。
Getting Started
- 1
在 Ertas Studio 中微调基础模型
训练你的领域模型。Hermes 4 衍生模型或基于 Llama 3.1 的微调与 Hermes Agent 的技能创建模式特别契合。
- 2
部署到兼容 OpenAI 的端点
导出为 GGUF 格式并通过 Ollama、vLLM 或 Ertas Cloud 提供服务。Hermes Agent 可调用任何标准的聊天补全端点。
- 3
安装 Hermes Agent 并配置模型
安装 Hermes Agent(自托管或通过 Nous 的托管基础设施)。将 LLM 提供商配置为指向你的 Ertas 推理端点。
- 4
运行智能体任务并让 GEPA 累积技能
随着智能体完成任务,GEPA 会自动从成功完成的任务中创建技能。随着时间的推移,技能库不断扩大,智能体在重复模式上变得更快。
- 5
将技能导出为 Ertas 的训练数据
定期将 GEPA 技能库导出为训练数据,并用于在 Ertas Studio 中微调底层模型。改进后的模型进一步加速未来的技能创建。
from hermes_agent import Agent, GEPAConfig
from hermes_agent.providers import OpenAICompatible
# Point Hermes Agent at your Ertas-trained Hermes 4 fine-tune
llm = OpenAICompatible(
base_url="http://localhost:11434/v1",
model="ertas-hermes-4-domain-70b",
api_key="not-needed",
)
# Configure GEPA to enable skill accumulation
gepa = GEPAConfig(
enabled=True,
skill_library_path="./skills/",
auto_distill=True, # Refine skills as they're reused
)
agent = Agent(
name="research-agent",
llm=llm,
gepa=gepa,
)
# First task: agent derives a solution from scratch
result1 = agent.run("Analyze Q3 earnings for the top 5 semiconductor companies.")
# A skill is automatically created for "analyze quarterly earnings"
# Later, similar task: agent invokes the existing skill
result2 = agent.run("Analyze Q3 earnings for the top 10 cloud companies.")
# ~40% faster than the first run because the skill is reused
# Export skills as training data for further Ertas fine-tuning
agent.gepa.export_training_data("./skills_training_data.jsonl")Benefits
- GEPA 自我改进:智能体创建可复用的技能,并在重复任务上加快约 40%
- MIT 许可证,无商业限制
- 可检查的技能库——不是不透明的学习权重,而是可读的代码/提示
- 与 Hermes 4 模型家族自然搭配,产出最高质量的技能创建
- 复合改进循环:技能 → 微调 → 更好的基础行为
- 每月 5 欧元起的自托管选项,使其对个人和小型团队均可访问
Related Resources
Fine-Tuning
Inference
LoRA
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Fine-Tune AI Models Without Writing Code
Running AI Models Locally: The Complete Guide to Local LLM Inference
CrewAI
LangChain
Mastra
Ollama
vLLM
Ertas for Customer Support
Ertas for Data Extraction
Ertas for AI Automation Agencies
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.