Fine-Tune Ant Group Ling / Ring with Ertas
Ant Group 兆級參數開放權重家族——Ling-2.5-1T(非思考模式,1M 上下文)和 Ring-2.5-1T(全球首個混合線性架構思考模型,在 IMO 2025 取得 35/42 金牌等級成績並橫掃 CMO 2025),以及 2026 年 4 月推出的 Ling-2.6-1T 更新版。
Overview
Ant Group 透過旗下 inclusionAI 組織發布的 Ling 與 Ring 系列,是 2026 年架構上最具特色的開放權重發布之一。兩者都是 1 兆參數的模型——但透過不同的架構選擇,瞄準根本不同的使用情境。Ling-2.5-1T(2026 年 2 月 16 日發布)是非思考模式模型,具備 100 萬 token 的上下文視窗,專為長上下文推理工作流程設計,著重於上下文廣度而非延伸思考。Ring-2.5-1T(同日發布)則是全球首個混合線性架構的思考模型,專為推理密集型工作負載設計,著重於延伸思維鏈而非上下文長度。
Ring-2.5-1T 最受矚目的成績是在 IMO 2025(國際數學奧林匹亞)取得 35/42 的金牌等級表現——這個分數足以與頂尖人類選手競爭,並大幅超越大多數開放權重推理模型。Ring 在 CMO 2025(中國數學奧林匹亞)也達到金牌等級表現。在數學推理方面,Ring-2.5-1T 是目前最具實力的開放權重選擇之一,混合線性架構在相同規模下提供純 Transformer 替代方案無法企及的推理模式效率。
Ling 系列於 2026 年 4 月 23 日推出 Ling-2.6-1T 更新版——這是非思考變體的更新,在維持 1M 上下文定位的同時新增多項能力強化。Ling 與 Ring 系列被定位為互補而非競爭——團隊可以針對不同工作負載同時部署兩者,由 Ling 處理長上下文任務,Ring 處理推理密集型任務。
Ant Group 崛起為重量級開放權重供應商,是 2026 年產業中值得關注的發展。雖然螞蟻集團多年來一直透過阿里巴巴生態系投入 AI 研究,但 Ling/Ring 的發布代表該公司首次貢獻前沿規模的開放權重。其中混合線性架構創新尤其確立了螞蟻作為值得關注的研究實驗室——而不僅是部署工程組織。權重可在 Hugging Face 上的 inclusionAI 組織下取得。
Key Features
Ring-2.5-1T 的混合線性架構是技術上的重點亮點。標準 Transformer 注意力對序列長度具有平方級計算複雜度,使得延伸推理成本高昂。線性注意力變體(Mamba、RWKV、Hyena)具有線性複雜度,但歷史上品質較差。混合線性架構結合兩者——將完整注意力層與線性注意力層交錯,在大幅降低長推理軌跡計算成本的同時,保留注意力的品質優勢。Ring-2.5-1T 是這種模式在思考模型中首個前沿規模的實作,IMO 2025 金牌等級的成績證明混合方法不會犧牲推理品質。
IMO 2025 取得 35/42 金牌等級分數,使 Ring-2.5-1T 躋身最具實力的數學推理模型行列——無論是開放權重或專有模型。IMO 題目需要持續多步推理、嚴謹算術以及策略性問題解決能力,這些都是簡單模式比對無法達成的。Ring 的分數可與強勁的人類選手競爭,並大幅超越先前的開放權重推理模型。在另一個題目分布上,CMO(中國數學奧林匹亞)金牌等級表現進一步驗證了這項結果。
Ling-2.5-1T 的 1M 上下文結合非思考架構,瞄準不同的使用情境輪廓。Ring 著重推理深度,Ling 則著重上下文廣度——在兆級參數規模上進行長文件分析、多文件綜合、整個程式碼庫推理。非思考設計意味著 Ling 直接回應而不進行延伸思考,能對不需要思考模式的上下文密集型查詢產生快速回應。
Ling-2.6-1T 4 月更新版延續非思考系列並改進能力,同時保留 1M 上下文定位。對於目前在 Ling-2.5-1T 上執行生產工作流程的團隊而言,2.6 更新版能在不增加營運遷移成本的情況下提供可衡量的進步,因為部署介面與提示模式維持相容。
Fine-Tuning with Ertas
在 Ertas Studio 中對 Ling 與 Ring 進行微調,需要在 1T 參數規模下使用多 GPU 伺服器配置。在典型序列長度下,QLoRA 訓練約需要 600-700GB 總 VRAM,可在 8x A100 80GB 或 8x H100 80GB 伺服器上進行。
對於大多數沒有 8 GPU 伺服器存取權的團隊,建議的做法是教師-學生蒸餾。Ring-2.5-1T 作為推理教師特別有效——其 IMO 等級的數學推理能力可轉化為高品質的合成推理軌跡資料,再用於微調較小的基礎模型(Qwen 32B、Llama 70B、DeepSeek-R1 蒸餾變體),以單 GPU 部署成本獲得領域特化的推理能力。
Ring 的混合線性架構需要 Ertas Studio 的 MoE 感知訓練流程,外加針對線性注意力層的特定處理——這些複雜性平台都會自動處理,無需使用者設定。訓練完成後,Ertas Studio 可匯出為 GGUF 格式,並完整保留 Ring 或 Ling 的聊天範本,包括下游推論框架所需的架構規範。
在數學推理微調方面,Ring-2.5-1T 是開放權重生態系中最強的基礎模型。結合 Ertas Studio 對顯式推理軌跡訓練資料格式的支援,可建立教育、研究或技術領域的專門化數學推理模型——在這些領域中,IMO 等級的能力具有實際意義。
Use Cases
Ring-2.5-1T 瞄準數學推理、科學分析和結構化問題解決應用——在這些情境中,IMO 等級的推理能力確實重要。教育平台(高等數學輔導、競賽數學訓練)、研究輔助(數學文獻分析、定理驗證)和技術分析(工程計算、科學計算)都能從 Ring 結合強大推理能力與混合線性架構效率的優勢中受益。
Ling-2.5-1T 與 Ling-2.6-1T 瞄準長上下文、非推理工作負載。長文件分析(法律合約、法規申報、多卷技術文件)、多文件綜合(文獻回顧、競爭情報)以及整個程式碼庫推理,都能受益於 Ling 的 1M 上下文搭配兆級參數容量。非思考架構意味著回應速度快——適合對延遲敏感的生產服務。
對於先前部署獨立推理模型與聊天模型的團隊,Ling + Ring 提供了在統一 Ant Group 基礎架構下的互補配對。團隊可以將推理密集型查詢路由到 Ring,將上下文密集型查詢路由到 Ling,兩者透過相容的推論基礎架構部署。這在結構上類似於團隊先前部署 DeepSeek-R1 + DeepSeek-V3 的方式,但具備 Ant Group 的特定架構優勢。
對於對替代架構研究與部署感興趣的團隊,Ring-2.5-1T 是混合線性研究中特別有趣且可進入生產的成果。大多數混合線性研究模型都是規模較小的概念驗證;Ring 在 1T 規模下證明了該架構在前沿規模上可行,開啟了先前無法企及的生產部署選項。
Hardware Requirements
Ant Group Ling-2.5-1T 或 Ring-2.5-1T 在 Q4_K_M 量化下需要約 540GB 記憶體,可在 8x A100 80GB 或 8x H100 80GB 伺服器上執行。在配備 768GB 以上 RAM 的主機上可進行 CPU 推論,但吞吐量遠低於 GPU 部署。
對於較小型部署,Q3_K_M 量化(約 405GB)以些微品質換取較低記憶體需求,可在 4x H100 80GB 伺服器上充裕執行。不建議在生產部署中使用低於 Q3 的量化——Ring 引以為傲的推理能力依賴於跨長推理鏈的一致品質,而激進量化會以降低推理品質的方式累積錯誤,影響推理勝過影響直接回應生成。
在 Ertas Studio 中進行微調:Ling/Ring QLoRA 約需 600-700GB 總 VRAM(多 GPU 伺服器)。對於沒有該規模的團隊,使用 Ring 作為教師將數學推理蒸餾到較小基礎模型(Qwen 32B 在 40GB GPU、Llama 70B 在 48GB GPU),是在可部署基礎架構規模下捕捉 Ring 推理模式最實用的途徑。
Supported Quantizations
Related Resources
Ship AI that runs on your users' devices.
Early bird pricing starts at $14.50/mo — locked in for life. Plans for builders and agencies.