Hermes Agent + Ertas

    使用 Hermes Agent 建構自我改進的代理——這是 Nous Research 採用 MIT 授權的框架,運用 GEPA 自我產生技能,代理可從經驗中創建可重用技能,並在重複任務上變得更快。

    Overview

    Hermes Agent 是 Nous Research 的開源代理框架,於 2026 年 2 月發佈,截至 2026 年 4 月已累積超過 103K 個 GitHub 星標。此框架的特色能力是其 GEPA(Generalized Experience-based Procedural Acquisition,基於經驗的廣義程序習得)自我改進機制——代理會從成功完成的任務中創建可重用的「技能」、透過使用加以精煉,並累積可隨時間複利成長的個人技能庫。實證結果顯示,當 Hermes 代理建立超過 20 個自我產生的技能後,在重複任務上的速度可提升約 40%,這個加速來自於技能重用,而非重新推導解法。

    這種自我改進模式與多數每次任務從零開始的代理框架根本不同。在 Hermes Agent 中,曾完成複雜任務的代理會將該解法寫入為一項技能,能在未來類似任務上直接被呼用。技能本身是 LLM 可讀的程式碼或結構化提示,因此可被檢視與編輯——而非不透明的學習權重。此框架採 MIT 授權,並提供從每月 €5 起的自託管選項與託管基礎設施,使其除企業部署外,也能讓個人開發者與小型團隊輕鬆使用。

    How Ertas Integrates

    Hermes Agent 可與任何 OpenAI 相容模型端點協同運作,因此 Ertas 訓練的模型可透過標準設定接入。在 Ertas Studio 微調模型並透過 Ollama、vLLM 或 Ertas Cloud 部署後,你可以將 Hermes Agent 設定為使用該端點作為其基礎 LLM。當與 Hermes 4 模型家族(同樣來自 Nous Research)搭配時,這個組合特別強大——Hermes 4 的混合 `<think>` 推理模式是搭配 Hermes Agent 的技能創建設計的,兩者一同使用可產出最高品質的技能庫。

    對於以自我改進為導向的部署,Ertas + Hermes Agent 的迴圈獨具威力。Hermes Agent 從代理經驗中產生技能;這些技能可匯出為訓練資料,回饋至 Ertas Studio 對底層模型進行微調,使其學習自身產生的程序性知識。微調後的模型在最常見的模式上表現更好,減少常見任務的技能庫查詢需求,同時保留以技能為基礎的處理方式以應對新任務。這形成了複利的改進迴圈:更好的技能 → 更好的微調 → 更好的基礎行為 → 更好的技能。

    Getting Started

    1. 1

      於 Ertas Studio 微調基礎模型

      訓練你的領域模型。Hermes 4 衍生模型或基於 Llama 3.1 的微調模型與 Hermes Agent 的技能創建模式搭配特別合適。

    2. 2

      部署至 OpenAI 相容端點

      匯出為 GGUF 並透過 Ollama、vLLM 或 Ertas Cloud 提供服務。Hermes Agent 可呼叫任何標準 chat-completion 端點。

    3. 3

      安裝 Hermes Agent 並設定模型

      安裝 Hermes Agent(自託管或透過 Nous 的託管基礎設施)。設定 LLM provider 指向你的 Ertas 推論端點。

    4. 4

      執行代理任務並讓 GEPA 累積技能

      代理完成任務時,GEPA 會自動從成功完成的任務中創建技能。隨著時間推移,技能庫會成長,代理在重複的模式上會變得更快。

    5. 5

      將技能匯出為 Ertas 的訓練資料

      定期將 GEPA 技能庫匯出為訓練資料,並用於在 Ertas Studio 中微調底層模型。改進後的模型會進一步加速未來的技能創建。

    python
    from hermes_agent import Agent, GEPAConfig
    from hermes_agent.providers import OpenAICompatible
    
    # Point Hermes Agent at your Ertas-trained Hermes 4 fine-tune
    llm = OpenAICompatible(
        base_url="http://localhost:11434/v1",
        model="ertas-hermes-4-domain-70b",
        api_key="not-needed",
    )
    
    # Configure GEPA to enable skill accumulation
    gepa = GEPAConfig(
        enabled=True,
        skill_library_path="./skills/",
        auto_distill=True,  # Refine skills as they're reused
    )
    
    agent = Agent(
        name="research-agent",
        llm=llm,
        gepa=gepa,
    )
    
    # First task: agent derives a solution from scratch
    result1 = agent.run("Analyze Q3 earnings for the top 5 semiconductor companies.")
    # A skill is automatically created for "analyze quarterly earnings"
    
    # Later, similar task: agent invokes the existing skill
    result2 = agent.run("Analyze Q3 earnings for the top 10 cloud companies.")
    # ~40% faster than the first run because the skill is reused
    
    # Export skills as training data for further Ertas fine-tuning
    agent.gepa.export_training_data("./skills_training_data.jsonl")
    執行一個由 Ertas 訓練的 Hermes 4 微調模型驅動的 Hermes Agent。GEPA 從成功任務中累積技能,並將其匯出為訓練資料以進一步精煉模型。

    Benefits

    • GEPA 自我改進:代理創建可重用技能,於重複任務上速度提升約 40%
    • MIT 授權,無商業限制
    • 可檢視的技能庫——不是不透明的學習權重,而是可讀的程式碼/提示
    • 與 Hermes 4 模型家族自然搭配,產出最高品質的技能創建
    • 複利的改進迴圈:技能 → 微調 → 更好的基礎行為
    • 從每月 €5 起的自託管選項,讓個人與小型團隊都能輕鬆採用

    Related Resources

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.