Back to blog
    2026 年開源 AI 模型生態全景
    open-sourceai-modelsqwendeepseekkimillamagemmalandscape

    2026 年開源 AI 模型生態全景

    截至 2026 年 4 月的開放權重 AI 模型生態系統全面快照——中國實驗室的主導地位、MoE 架構成為預設選擇、統一思考模式(thinking mode)的浮現,以及這一切對生產環境部署的意義。

    EErtas Team·

    2026 年 4 月的開放權重 AI 模型生態系統,與大多數團隊在六個月前所看到的根本不同。三個結構性轉變重塑了整個版圖:中國實驗室現已集體主導排行榜、混合專家(mixture-of-experts)已成為旗艦模型釋出時的預設架構,而統一思考模式模型的營運簡潔性,已取代了過往「推理模型與聊天模型分開部署」的模式。

    這是我們在規劃自家模型策略時,希望當初有人提供給我們的全景報告。內容涵蓋目前的現況、足夠穩定可以下注的部分,以及還在快速變動、暫時不宜投入的領域。

    排行榜的現況

    2026 年 4 月的綜合智慧排名,在多個基準聚合服務中呈現出一致的故事。在 BenchLM 綜合指數中得分超過 80 的開放權重模型頂級行列,由中國實驗室主導:

    • DeepSeek V4 Pro(1.6T-A49B MoE,BenchLM 87)— 目前的領導者
    • Kimi K2.6(Moonshot AI,1T-A32B MoE,BenchLM 86)
    • MiMo V2.5 Pro(小米,1.02T-A42B MoE,綜合分約 86)
    • GLM-5 / 5.1(Z.ai,745B 稠密模型,BenchLM 83)
    • Qwen 3.5-397B-A17B(阿里巴巴,BenchLM 約 82)

    非中國的最強開放權重模型是 Mistral Small 4(119B-A6B MoE,2026 年 3 月),其次是 Hermes 4 405B(Nous Research,2025 年 8 月)以及 OpenAI 的 GPT-OSS 系列,構成美國開發選項中的頂層陣容。Llama 4 Scout/Maverick 雖然推出了具備一定水準的模型,但 Meta 的市場反應普遍被視為令人失望,原訂的 Llama 4 Behemoth 也已暫停開發。

    這並非小幅修正或單季的異常值。中國實驗室在開放權重模型品質上的優勢,在 2025-2026 年間持續擴大,目前看不到美國實驗室在開放權重這條軸線上特別有縮小差距的明確跡象。(封閉模型的前沿——GPT-5.5、Claude Opus 4.7、Gemini Ultra——是另一個競爭格局,動態截然不同。)

    架構收斂:混合專家

    頂級行列的每一款旗艦模型都採用混合專家(MoE)架構。總參數量與啟用參數量的比例集中在一個非常一致的範圍:

    • DeepSeek V4 Pro:1.6T 總計 / 49B 啟用
    • Kimi K2.6:1T / 32B 啟用
    • MiMo V2.5 Pro:1.02T / 42B 啟用
    • Qwen 3.5-397B:397B / 17B 啟用
    • GPT-OSS-120B:117B / 5.1B 啟用
    • Mistral Small 4:119B / 6B 啟用

    模式很清楚:1T 總參數搭配 30-50B 啟用參數,是新的旗艦基線;較小的 MoE 級別(總計 100-400B、啟用 5-20B)則鎖定 token 成本經濟性至關重要的生產 API 服務場景。70B 以上的純稠密模型在前沿陣容中愈來愈罕見——Llama 3 405B 和 GLM-5(745B 稠密)是值得注意的少數派,且兩者在等價品質下,相對於 MoE 替代方案皆需付出明顯的推論成本代價。

    對於部署團隊而言,MoE 的轉變大致是好消息。推論經濟性主要由啟用參數量決定,因此 1T-A32B 模型的服務速度可媲美 32B 稠密模型。代價則是總記憶體占用——即便每個 token 只啟用一部分專家,你仍須將所有專家權重載入記憶體。這通常代表兆級參數的等級需要多 GPU 伺服器基礎設施,而較小的 MoE 級別(總計 100-200B)則可在單張 80GB GPU 上運行。

    營運模式:統一思考模式

    另一項重大架構轉變,是從獨立的推理模型轉向統一思考模式檢查點。在 2025 年初,主流模式是部署 DeepSeek-R1(純推理)並搭配 DeepSeek-V3(純聊天),中間以跨模型路由層串接。到了 2026 年 4 月,這種模式愈來愈被視為遺產——已被「透過執行階段參數,在快速直接回應與延伸推理模式之間切換」的單一檢查點所取代。

    這一轉變始於 2025 年初的 Qwen 3(首次引入統一思考模式),並在 DeepSeek V3.2 / V4、Hermes 4 與 Mistral Small 4 中加速擴散。每一款統一思考模式模型都保留了專用推理前輩的推理能力,同時大幅簡化了生產部署拓撲——同一個模型既服務推理查詢,也服務非推理查詢,路由邏輯從基礎設施層下放到一個簡單的控制參數。

    對於營運生產級代理基礎設施的團隊,這是一項實質的營運改善。大多數查詢適合採用快速直接回應(亞秒延遲、低 token 成本)。少數受益於推理的較難查詢會消耗較多算力,但僅在使用者(或代理)明確要求時才會發生。相對於統一以純推理模式進行推論,成本節省相當可觀——在真實工作負載組合上通常可達 5-10 倍。

    授權版圖

    Apache 2.0 已實質成為新開放權重釋出時的預期授權。目前的預設預期是:權重可商業部署,沒有使用上限、無歸屬要求、也沒有活動限制。未達到此門檻的釋出——例如 Cohere 的 CC-BY-NC、Meta 的自訂 Llama 社群授權——愈來愈像是異類,而非常態。

    Apache 2.0 或同等授權(修改版 MIT、MIT、MIT 風格)涵蓋了目前大多數旗艦:

    • Qwen 系列(所有變體)— Apache 2.0
    • DeepSeek 系列 — DeepSeek License(MIT 風格)
    • Kimi 系列 — 修改版 MIT
    • Mistral Small 4 — Apache 2.0
    • Gemma 4 — Apache 2.0(本世代新採用)
    • GPT-OSS — Apache 2.0
    • MiMo V2.5 — MIT
    • OLMo(Ai2)— Apache 2.0

    值得注意的少數派:

    • Llama 3 / 4 — Llama 社群授權(7 億 MAU 使用上限、需歸屬)
    • Cohere Command A — CC-BY-NC 4.0(僅供研究;商用須另訂授權)
    • Falcon H1R — Falcon LLM License(容許商用但非 Apache)
    • Hermes 4 — 沿用 Llama 3.1 基礎授權

    對 2026 年的商業部署團隊來說,務實的預設做法是先從 Apache 2.0 授權的選項著手,僅在能力需求明確要求採用較限縮授權的替代方案時,才考慮偏離預設。

    較小模型級別

    並非每個團隊都需要兆級參數的能力。低於 10GB VRAM 的級別——能在消費級 GPU 與筆電上運行的模型——在 2025-2026 年間因為更佳的訓練資料、更高效的架構,以及更精煉的量化技術,能力顯著提升。

    目前最強的小模型選擇:

    • Phi-4(Microsoft,14B 稠密,MIT)— 每參數能力極為突出
    • Llama 3 8B(Meta)— 主力模型,生態最成熟
    • Qwen 3 4B/8B(阿里巴巴,Apache 2.0)— 多語覆蓋最佳
    • Gemma 4 e4b/e2b(Google,Apache 2.0)— 唯一可信賴的小型多模態選項
    • Falcon H1R-7B(TII)— 在 7B 規模上有超水準的數學推理

    Gemma 4 e2b 在 2B 參數量級具備原生多模態支援尤其值得關注——它讓裝置端部署模式(行動聊天、相機式 AI 應用、無障礙工具)成為可能,這是先前任何開放權重系列在該規模上都未能支援的。

    代理(Agent)技術棧

    代理化部署的興起,把框架選擇拉進了模型討論的範圍。三個 Python 框架主導生產級代理基礎設施:LangGraph(在 2026 年初的 GitHub 星數超越 CrewAI)、CrewAI(在原型開發與中階部署上仍然強勢)、以及 AutoGen(目前正處於 Microsoft 的整合階段,併入 Microsoft Agent Framework)。

    對 TypeScript 團隊而言,版圖則不同。Vercel AI SDK 已實質成為 AI 功能的預設基礎設施層,而 Mastra(建構於 AI SDK 之上)則是主導性的生產級代理框架——在 2026 年 1 月的 1.0 版本時突破 22K GitHub 星與每週 30 萬以上 npm 下載。

    專門化框架也獲得了相當顯著的採用:

    • Hermes Agent(Nous Research,2026 年 2 月)— 透過 GEPA 技能累積實現自我改進,103K+ 星
    • smolagents(Hugging Face)— 約 1,000 行核心實作的程式碼動作代理
    • Letta(前身 MemGPT)— 具備持續記憶的有狀態代理,官方 Vercel AI SDK 提供者
    • browser-use — Playwright + LLM 瀏覽器自動化,5 萬+ 星,MIT 授權

    多代理協同編排是當前的尖端前沿。Kimi K2.6 的 Agent Swarm 執行階段——可協同編排多達 300 個子代理、跨越 4,000 個推理步驟——相對於典型的 2-6 個代理多代理模式,是一個跳躍式的提升。多數生產部署仍處於小型團隊級別,但隨著底層模型在長時程執行上更為可靠,發展軌跡顯然朝向更大規模的群集邁進。

    這對生產團隊代表什麼

    如果要把整個版圖壓縮成可執行的指引:

    對於大多數生產部署,正確的預設選項是 Qwen 3.6——Apache 2.0 授權,稠密 27B 變體可在單張 GPU 上部署,多語覆蓋廣泛,並透過 Qwen-Agent 提供原生代理整合。它在最大量的真實部署場景中命中務實的甜蜜點,且不需要多 GPU 基礎設施。

    對於峰值能力至關重要的多 GPU 伺服器部署,建議採用 DeepSeek V4——綜合智慧最佳、結合 DSA 效率的 1M 上下文、統一思考模式。Kimi K2.6 則是在長時程代理化工作負載為主要使用情境時的正確選擇。

    對於程式碼專用部署,MiMo V2.5 Pro 與 Qwen3-Coder 是首選——兩者皆專為代理化編碼而打造,皆有強勁的 SWE-Bench 表現,且皆可在 MIT 或 Apache 2.0 條款下部署。

    對於有資料主權需求的歐洲部署,Mistral Small 4 是自然的預設——歐盟總部、Apache 2.0、統一架構,並在歐洲語言上有強勁的多語覆蓋。

    對於 Mac 與邊緣部署,Gemma 4 是最強的選擇——一流的 MLX 支援、Apache 2.0、所有尺寸(包括 2B 有效邊緣變體)皆原生多模態。

    對於推理密集型應用,包括因積極安全對齊而被擋下的合理使用情境,Hermes 4 是正確選擇——Atropos RL 後訓練帶來強勁的推理能力、中性的對齊立場,並完全相容於 Llama 3 部署生態。

    仍在變動的部分

    整個版圖目前已穩定到圍繞 2026 年前沿做規劃是合理的,但仍有幾個軸線變動快速、值得持續關注:

    兆級 MoE 經濟性。 目前在 1T 總參數搭配 30-50B 啟用的旗艦模型,正逼近多 GPU 伺服器需求的邊界。啟用參數比例更低的架構(Mistral Small 4 為 6B 啟用、GPT-OSS 為 5.1B 啟用)顯著改善了推論經濟性,我們預期此趨勢將持續。

    有效上下文長度。 廣告中的上下文視窗持續變大(Llama 4 Scout 的 1,000 萬 tokens、多款 1M 上下文旗艦)。有效上下文——模型維持 90% 以上檢索準確度的範圍——在每一款目前模型上都比廣告值短,且在生產部署中是更重要的指標。DeepSeek Sparse Attention(DSA)等架構已大幅改善有效上下文保持率,但尚未完全弭平差距。

    多代理執行階段。 Kimi K2.6 的 Agent Swarm 將 300 個子代理擴展到位,相對於目前的生產多代理常態是顯著的躍進。此模式是否能推廣至其他模型系列與其他代理框架,是 2026 年最值得關注的開放性問題之一。

    自我改進的代理。 Hermes Agent 的 GEPA 自我改進機制——代理從成功完成的任務中創造可重用技能——在累積 20 個以上技能後,於重複任務上產生約 40% 的加速。這種「複利式改進」模式與目前大多數代理架構根本不同,隨著採用度成長值得持續觀察。

    對於在 2026 年確立模型策略的團隊,目前的根基已穩固到足以正式上線。中國實驗室主導、MoE 架構、Apache 2.0 授權、統一思考模式的現實,未來 12 個月內反轉的機率不高。在此根基之上的工作——微調、代理基礎設施、檢索、部署經濟性——才是真正的生產工作所在。

    Ship AI that runs on your users' devices.

    Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.

    Keep reading