Fine-Tune Arcee Trinity Large with Ertas
Arcee AI 於 2026 年 1 月發布的版本——一個 4,000 億參數的專家混合模型,具備 13B 活躍參數、256 個專家(每個 token 啟用 4 個)、17 兆訓練 token,並在 2,048 顆 NVIDIA B300 晶片上訓練 30-33 天。是 2026 年少數幾個美國製造的前沿開源權重模型之一,與 OLMo 3 及 GPT-OSS 並列。
Overview
Arcee Trinity Large 由 Arcee AI 於 2026 年 1 月下旬發布,是 2026 年少數幾個美國製造的前沿規模開源權重模型之一。架構為 4,000 億參數的專家混合,每個 token 約 13B 活躍參數,組織於 256 個專家上並採用 top-4 路由。Trinity Large 在 17 兆 token 上訓練了 30-33 天,使用 2,048 顆 NVIDIA B300 GPU 的叢集,代表了可觀的單一模型訓練投資。
Arcee 發布了兩個變體:Trinity Large Preview(2026 年 1 月 27 日)——最初的訓練完成檢查點——與 Trinity Large Thinking(2026 年 4 月 1 日)——透過針對性後訓練增加延伸思考鏈能力的推理導向微調。Thinking 變體被定位為基礎 Trinity Large 的推理模式互補品,精神上類似於前一代中 DeepSeek-R1 之於 DeepSeek-V3 的關係。
Arcee 在 2026 年開源權重生態系中的重要性主要不在於基準領先——Trinity Large 並未登頂由 DeepSeek V4、Kimi K2.6 或 MiMo V2.5 Pro 占據的排行榜。其意義是結構性的:Trinity Large 是極少數美國製造的前沿開源權重模型之一,與 OLMo 3(Allen AI)和 GPT-OSS(OpenAI)並列。對於對供應鏈多元化感興趣,或特別想要中國實驗室主導的 2026 排行榜的美國開發替代方案的組織,Arcee Trinity Large 是值得注意的選項。
TechCrunch 對 Trinity Large 的報導強調「小型新創 vs Meta」的敘事——Arcee 是個相對小型的美國 AI 新創,在訓練規模上與大幅更大的組織競爭。該公司成功完成 30 天訓練執行並交付可部署模型,這一事實證明前沿規模的開源權重訓練對於資源充足的新創而言是可行的,不僅限於既有巨頭。
權重可在 Hugging Face 的 arcee-ai 組織下取得。授權是開源權重,條款適合商業部署。
Key Features
256 個專家加上 top-4 路由的架構比大多數同期者更為激進。DeepSeek V4 使用約 256 個專家加上 top-8,Mistral Small 4 使用較少的專家與較小的活躍數,Mixtral 時代的 MoE 使用 8 個專家加上 top-2,而 Arcee Trinity Large 的設計點——許多專家加上相對狹窄的活躍路由——產生跨 token 類型與領域特別細粒度的特化。此架構選擇有助於模型在 13B 活躍參數推論成本下的強推理表現。
美國製造的前沿開源權重在 2026 生態系中是個有意義的結構性特徵。主導的開源權重模型供應商(阿里巴巴、DeepSeek、月之暗面、Z.ai、小米、MiniMax、Tencent、螞蟻集團)總部都在中國。Arcee Trinity Large 透過提供前沿規模的美國開發替代方案填補結構性缺口,與 OLMo 3(Allen AI 的完全開放發布)和 GPT-OSS(OpenAI 自 GPT-2 以來首次開源權重發布)並列。對於有監管或策略理由偏好非中國實驗室模型的組織,Trinity Large 是少數幾個真實選項之一。
Thinking 變體將 Trinity Large 延伸至推理導向工作負載。於 2026 年 4 月 1 日發布,Thinking 變體使用針對性後訓練發展延伸思考鏈能力。結合更廣泛的 Trinity Large 架構,這在比僅在兆參數規模下達成推理能力的替代方案大幅更佳的部署經濟性下,產生具備推理能力的模型。
17 兆訓練 token 語料與領先的 2026 開源權重發布具有競爭力。雖然 Trinity Large 未在任何特定基準類別中主導,但廣泛的訓練語料產生跨多元領域的一致能力——對通用部署而言是個有用的特質。
Fine-Tuning with Ertas
在 Ertas Studio 中對 Arcee Trinity Large 進行微調透過標準 MoE 訓練管線運作。每個 token 13B 活躍參數,QLoRA 訓練比較大的 MoE 旗艦更易使用——在典型序列長度下可裝在單張 80GB GPU 上,或分散於兩張 48GB GPU 上。
針對 256 個專家的架構,Ertas Studio 在低秩適配期間自動處理專家路由穩定性。細粒度的專家特化使 Trinity Large 特別適合針對領域特化的微調——不同的專家可有效針對不同的子領域模式重新訓練,而不影響更廣泛模型的行為。
針對推理特定的微調,Thinking 變體基礎是自然的起點。Ertas Studio 支援帶有明確推理軌跡的訓練資料格式,在領域特定微調中保留思考鏈能力。微調的變體保留底層推理能力,同時針對你的領域特定推理模式特化。
訓練完成後,Ertas Studio 匯出為 GGUF 格式並完整保留 Trinity Large 對話模板。Q4_K_M 量化約 230GB——多 GPU 伺服器部署範圍——但 13B 的活躍參數量使部署後的推論經濟性有利。
Use Cases
Trinity Large 的主要使用情境反映其在 2026 生態系中的結構性位置。具有監管或策略理由偏好美國開發開源權重模型的組織——政府承包商、國防鄰近應用、具有供應商管轄偏好的受監管產業、供應鏈多元化的基礎設施策略——發現 Trinity Large 是前沿規模下的少數真實選項之一。
針對通用生產部署,Trinity Large 是 GLM-5 或 Mistral Small 4 在第二級旗艦水準上的可信替代方案。13B 的活躍參數推論經濟性對高吞吐量 API 服務有利,256 個專家的架構在多元領域提供良好品質,而授權支援不受限的商業部署。
Thinking 變體鎖定推理密集型應用——研究輔助、科學分析、複雜程式碼生成、結構化深思熟慮任務。對於先前將 DeepSeek-V3(聊天)與 DeepSeek-R1(推理)配對,並想要整合至單一美國製造替代方案的團隊,Trinity Large + Trinity Large Thinking 提供相容的配對。
為領域特化微調 Trinity Large 是個自然的使用情境。256 個專家的架構細粒度特化使其特別適合產生在保留廣泛能力的同時在特定子領域上表現傑出的領域特化模型。對於具有可觀領域特定訓練資料與特定品質要求的團隊,Trinity Large 是個強大的基礎。
Hardware Requirements
Arcee Trinity Large 在 Q4_K_M 量化下約需 230GB 記憶體,可裝在 4 張 A100 80GB 或 4 張 H100 80GB 伺服器上,或具備 384GB+ RAM 的 CPU 推論主機上。一旦載入後,13B 的活躍參數量決定 token 生成吞吐量——對於在合適伺服器硬體上的生產服務而言相當合理。
對於較小部署,Q3_K_M 量化(約 175GB)以略低品質換取較少記憶體,可裝在 2 張 H100 80GB 或 3 張 A100 80GB 配置上。Q3 以下不建議用於生產部署——Trinity Large 與眾不同的細粒度專家特化依賴跨 256 個專家路由的一致品質,而激進的量化會影響路由穩定性。
在 Ertas Studio 中進行微調:Trinity Large QLoRA 約需 100-150GB 總 VRAM,在典型序列長度下可裝在單張 80GB GPU 上,或在模型並行下兩張 48GB GPU 上。13B 活躍參數的 MoE 架構使訓練比微調同等品質的密集替代 方案大幅更高效。Thinking 變體具有相同的微調硬體需求。
Supported Quantizations
Related Resources
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.