Hermes Agent + Ertas
使用 Hermes Agent 建構自我改進的代理——這是 Nous Research 採用 MIT 授權的框架,運用 GEPA 自我產生技能,代理可從經驗中創建可重用技能,並在重複任務上變得更快。
Overview
Hermes Agent 是 Nous Research 的開源代理框架,於 2026 年 2 月發佈,截至 2026 年 4 月已累積超過 103K 個 GitHub 星標。此框架的特色能力是其 GEPA(Generalized Experience-based Procedural Acquisition,基於經驗的廣義程序習得)自我改進機制——代理會從成功完成的任務中創建可重用的「技能」、透過使用加以精煉,並累積可隨時間複利成長的個人技能庫。實證結果顯示,當 Hermes 代理建立超過 20 個自我產生的技能後,在重複任務上的速度可提升約 40%,這個加速來自於技能重用,而非重新推導解法。
這種自我改進模式與多數每次任務從零開始的代理框架根本不同。在 Hermes Agent 中,曾完成複雜任務的代理會將該解法寫入為一項技能,能在未來類似任務上直接被呼用。技能本身是 LLM 可讀的程式碼或結構化提示,因此可被檢視與編輯——而非不透明的學習權重。此框架採 MIT 授權,並提供從每月 €5 起的自託管選項與託管基礎設施,使其除企業部署外,也能讓個人開發者與小型團隊輕鬆使用。
How Ertas Integrates
Hermes Agent 可與任何 OpenAI 相容模型端點協同運作,因此 Ertas 訓練的模型可透過標準設定接入。在 Ertas Studio 微調模型並透過 Ollama、vLLM 或 Ertas Cloud 部署後,你可以將 Hermes Agent 設定為使用該端點作為其基礎 LLM。當與 Hermes 4 模型家族(同樣來自 Nous Research)搭配時,這個組合特別強大——Hermes 4 的混合 `<think>` 推理模式是搭配 Hermes Agent 的技能創建設計的,兩者一同使用可產出最高品質的技能庫。
對於以自我改進為導向的部署,Ertas + Hermes Agent 的迴圈獨具威力。Hermes Agent 從代理經驗中產生技能;這些技能可匯出為訓練資料,回饋至 Ertas Studio 對底層模型進行微調,使其學習自身產生的程序性知識。微調後的模型在最常見的模式上表現更好,減少常見任務的技能庫查詢需求,同時保留以技能為基礎的處理方式以應對新任務。這形成了複利的改進迴圈:更好的技能 → 更好的微調 → 更好的基礎行 為 → 更好的技能。
Getting Started
- 1
於 Ertas Studio 微調基礎模型
訓練你的領域模型。Hermes 4 衍生模型或基於 Llama 3.1 的微調模型與 Hermes Agent 的技能創建模式搭配特別合適。
- 2
部署至 OpenAI 相容端點
匯出為 GGUF 並透過 Ollama、vLLM 或 Ertas Cloud 提供服務。Hermes Agent 可呼叫任何標準 chat-completion 端點。
- 3
安裝 Hermes Agent 並設定模型
安裝 Hermes Agent(自託管或透過 Nous 的託管基礎設施)。設定 LLM provider 指向你的 Ertas 推論端點。
- 4
執行代理任務並讓 GEPA 累積技能
代理完成任務時,GEPA 會自動從成功完成的任務中創建技能。隨著時間推移,技能庫會成長,代理在重複的模式上會變得更快。
- 5
將技能匯出為 Ertas 的訓練資料
定期將 GEPA 技能庫匯出為訓練資料,並用於在 Ertas Studio 中微調底層模型。改進後的模型會進一步加速未來的技能創建。
from hermes_agent import Agent, GEPAConfig
from hermes_agent.providers import OpenAICompatible
# Point Hermes Agent at your Ertas-trained Hermes 4 fine-tune
llm = OpenAICompatible(
base_url="http://localhost:11434/v1",
model="ertas-hermes-4-domain-70b",
api_key="not-needed",
)
# Configure GEPA to enable skill accumulation
gepa = GEPAConfig(
enabled=True,
skill_library_path="./skills/",
auto_distill=True, # Refine skills as they're reused
)
agent = Agent(
name="research-agent",
llm=llm,
gepa=gepa,
)
# First task: agent derives a solution from scratch
result1 = agent.run("Analyze Q3 earnings for the top 5 semiconductor companies.")
# A skill is automatically created for "analyze quarterly earnings"
# Later, similar task: agent invokes the existing skill
result2 = agent.run("Analyze Q3 earnings for the top 10 cloud companies.")
# ~40% faster than the first run because the skill is reused
# Export skills as training data for further Ertas fine-tuning
agent.gepa.export_training_data("./skills_training_data.jsonl")Benefits
- GEPA 自我改進:代理創建可重用技能,於重複任務上速度提升約 40%
- MIT 授權,無商業限制
- 可檢視的技能庫——不是不透明的學習權重,而是可讀的程式碼/提示
- 與 Hermes 4 模型家族自然搭配,產出最高品質的技能創建
- 複利的改進迴圈:技能 → 微調 → 更好的基礎行為
- 從每月 €5 起的自託管選項,讓個人與小型團隊都能輕鬆採用
Related Resources
Fine-Tuning
Inference
LoRA
Getting Started with Ertas: Fine-Tune and Deploy Custom AI Models
Fine-Tune AI Models Without Writing Code
Running AI Models Locally: The Complete Guide to Local LLM Inference
CrewAI
LangChain
Mastra
Ollama
vLLM
Ertas for Customer Support
Ertas for Data Extraction
Ertas for AI Automation Agencies
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.