
為什麼中國實驗室如今主導開源 AI
到了 2026 年 4 月,中國實驗室在綜合智慧基準上拿下開放權重模型的前五名。這個格局並非偶然——它反映的是中美 AI 發展之間,經過多年才顯現的策略性、結構性與經濟性差異。
如果在 2024 年初,你跟某個從事 AI 基礎設施工作的人說「兩年後,每一個主要智慧基準的開放權重前五名都會來自中國實驗室」,他大概會懷疑你。當時主導的開放權重名字是 Llama、Mistral 與 Falcon——Meta、一家法國新創、一家阿聯研究機構。DeepSeek 才剛釋出 V2;Qwen 2 還在浮現;Kimi 仍是 Moonshot 一個以中文為主、英語 AI 圈大致看不見的產品。
到了 2026 年 4 月,畫面已根本不同。目前的開放權重排行榜:
- DeepSeek V4 Pro(BenchLM 87)
- Kimi K2.6(BenchLM 86)
- MiMo V2.5 Pro(小米,綜合分約 86)
- GLM-5 / 5.1(Z.ai,BenchLM 83)
- Qwen 3.5-397B-A17B(阿里巴巴,BenchLM 約 82)
前五名——其實前十名的多數——如今全是中國實驗室的釋出。Mistral Small 4、Hermes 4、Llama 4,以及 OpenAI 的 GPT-OSS,構成了非中國選項的頂層陣容,但差距在 2025-2026 年間持續擴大。
這不是偶然,也不是單季的離群值。這個格局反映的是中美 AI 發展之間,經過多年才浮現的策略性、結構性與經濟性差異。理解原因,對任何在 2026 年及以後做模型選擇決策的人都有幫助。
策略選擇:開放權重作為地緣槓桿
最重要的因素也是最簡單的:中國 AI 公司把開放權重釋出視為策略性優先事項,這一點美國 AI 公司普遍不一樣。背後的邏輯是地緣與經濟的。中國實驗室在封閉 API 的競爭上面臨結構性劣勢——它們不易服務西方企業客戶、面臨限制獲取前沿硬體的出口管制、也不像 OpenAI 與 Anthropic 那樣在全球企業買家中具備等量的品牌認知。
開放權重把這個槓桿翻轉過來。 一家釋出最強開放權重模型的中國實驗室,會成為以下任一團隊的預設選擇:偏好自架部署、不能或不願使用美國專有 API,或需要對自家 AI 基礎設施擁有主權的團隊。這個模型會被全球部署——包括被評估自架替代方案的美國企業採用——而該實驗室將累積生態影響力,最終轉化為長期的市場地位。
美國 AI 公司的算盤恰好相反。OpenAI、Anthropic 與 Google 從封閉 API 賺取龐大營收,沒有太多誘因釋出會蠶食該營收的競爭力開放權重模型。例外情況——Meta 的 Llama 系列、OpenAI 在 2025 年 8 月的 GPT-OSS 釋出——之所以值得注意,正是因為它們是對美國主流策略的偏離,而非常態。
這不是任何一方的道德判斷。考量各自的競爭位置,兩種策略都合理。但這產生了一個結構性格局:中國實驗室更積極投資開放權重釋出、美國實驗室更積極投資封閉 API,而開放權重排行榜反映的就是這種努力分配。
經濟性格局:較低的訓練成本
第二個因素是訓練經濟性。DeepSeek 在 2024 年底發表的 V3 論文之所以引起轟動,正是因為該模型的訓練成本據稱僅是同級西方模型的一小部分——根據 DeepSeek 自述約 560 萬美元,而 GPT-4 等級訓練的估計值則在數億美元。成本結構的差異來自幾個來源:
工程效率。 中國實驗室一直被迫圍繞西方實驗室不必面對的限制做硬性最佳化。對先進 GPU 的出口管制意味著中國實驗室無法像西方前沿實驗室那樣,單純對問題堆硬體。架構創新——DeepSeek 的多頭潛在注意力(Multi-Head Latent Attention)、Qwen 的混合 MoE 設計、Kimi 的專家路由最佳化——部分都是針對西方實驗室不必設法繞過的硬體限制所做的回應。
訓練資料策展。 中國實驗室通常重金投入策展性的合成資料生成,而非主要依賴公開網路資料。累積效應是更高效的訓練:每個 token 的訊號更強、重複更少、資料品質更高。西方實驗室也在做這件事,但中國實驗室相對於總訓練預算的邊際投入更高。
較低的算力機會成本。 西方前沿實驗室執行一次 2 億美元的訓練,等於放棄了原本可服務付費 API 客戶的 2 億美元算力。中國實驗室面對的是不同的算力經濟——本土的中國雲端與晶片生態、政府支持的基礎設施投資,以及更低的實驗性訓練機會成本。這讓積極實驗的期望值成本更便宜。
結果是中國實驗室每單位投入推出更多模型釋出、迭代更快,且能負擔釋出中間檢查點,而西方實驗室會視這些檢查點為太有價值而不願贈送。Qwen、DeepSeek 與 Kimi 在 2025-2026 年間維持的釋出節奏,西方實驗室在開放權重類別中根本跟不上。