<blockquote id="ue9b1"></blockquote>
    
    

    <style id="ue9b1"></style>
      <sub id="ue9b1"><p id="ue9b1"><form id="ue9b1"></form></p></sub>

      <strong id="ue9b1"><button id="ue9b1"><mark id="ue9b1"></mark></button></strong>
      成年午夜性影院,下面一进一出好爽视频,国产无遮挡又黄又爽又色,国产精品爽爽v在线观看无码,国产人妻久久精品一区二区三区,国产伦精品一区二区三区免费迷,国产欧美精品一区二区三区,日韩精品一区二区三区视频
      網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      吳恩達(dá)關(guān)注的Ling-1T背后,螞蟻 Ling 2.0 報(bào)告萬億模型開源配方

      0
      分享至



      機(jī)器之心報(bào)道

      編輯:Panda

      AI 導(dǎo)師吳恩達(dá)在其最新一期的 The Batch Newsletter 中,將目光投向了來自螞蟻集團(tuán)的最新開源模型 Ling-1T。



      吳恩達(dá) The Batch Newsletter 首頁截圖

      他敏銳地指出:Ling-1T 作為一個(gè)非推理(non-reasoning)模型,其性能卻直逼業(yè)界頂尖的閉源模型,這背后隱藏著一個(gè)關(guān)鍵的技術(shù)轉(zhuǎn)向。



      Ling-1T(最右列)與幾款具有代表性的旗艦?zāi)P偷谋容^,包括大參數(shù)量的開源模型(DeepSeek-V3.1-Terminus、Kimi-K2-Instruct-0905)與閉源 API(GPT-5-main、Gemini-2.5-Pro)。此圖也被吳恩達(dá) Newsletter 引用。

      吳恩達(dá)提到,Ling-1T 在預(yù)訓(xùn)練階段就強(qiáng)化了思維鏈(CoT) ,這種做法「正在模糊推理與非推理模型之間的界限」。這引出了一個(gè)業(yè)界都在關(guān)心的問題:Ling-1T 卓越的推理能力究竟從何而來?

      事實(shí)上,Ling-1T 的成功還并非孤例。近兩個(gè)月,螞蟻集團(tuán)以前所未有的速度和力度密集開源了 Ling-mini-2.0、Ling-flash-2.0、萬億參數(shù)的 Ling-1T(參閱報(bào)道《更大,還能更快,更準(zhǔn)!螞蟻開源萬億參數(shù)語言模型 Ling-1T,刷新多項(xiàng) SOTA》),乃至其后的 Ring 系列推理模型(參閱《螞蟻 Ring-1T 正式登場(chǎng),萬億參數(shù)思考模型,數(shù)學(xué)能力對(duì)標(biāo) IMO 銀牌》)。這一系列動(dòng)作的背后,都指向了一套統(tǒng)一的「秘密武器」。

      現(xiàn)在,通過一份長(zhǎng)達(dá) 58 頁的硬核技術(shù)報(bào)告《Ling 2.0 Technical Report》,螞蟻集團(tuán)百靈團(tuán)隊(duì)(Ling Team)揭示了這個(gè)答案。



      • 報(bào)告標(biāo)題:Every Activation Boosted: Scaling General Reasoner to 1 Trillion Open Language Foundation
      • 報(bào)告地址:https://arxiv.org/abs/2510.22115
      • 代碼地址:https://github.com/inclusionAI/Ling-V2
      • 模型地址:https://huggingface.co/collections/inclusionAI/ling-v2

      這份報(bào)告不僅是 Ling 系列的模型說明書,更是一份詳盡的模型配方和技術(shù)藍(lán)圖。該報(bào)告系統(tǒng)性闡述了螞蟻究竟是如何構(gòu)建一個(gè)如此強(qiáng)大、統(tǒng)一且可擴(kuò)展的模型基礎(chǔ),進(jìn)而如何實(shí)現(xiàn)從 16B 到 1T 參數(shù)規(guī)模的、面向推理的(Reasoning-Oriented)模型訓(xùn)練。

      其核心設(shè)計(jì)哲學(xué)可以凝練為一句話:Every Activation Boosted,即確保每一次激活都在扎實(shí)地提升模型的推理能力。

      我們或許要問,在當(dāng)前 AI 領(lǐng)域「模型大爆炸」、性能強(qiáng)大的新模型層出不窮的背景下,僅僅發(fā)布又一個(gè)模型的訓(xùn)練細(xì)節(jié),意義何在?

      事實(shí)上,這個(gè)問題的答案或許正好體現(xiàn)了螞蟻集團(tuán)這份 Ling 2.0 技術(shù)報(bào)告的遠(yuǎn)見。它并非僅僅展示「我們做出了什么」,而是試圖系統(tǒng)性地回答一個(gè)更深層的問題:在通往更強(qiáng)大 AI 的道路上,尤其當(dāng)算力成本成為核心制約時(shí),我們?nèi)绾尾拍軜?gòu)建一套可持續(xù)、可規(guī)模化、并且是以提升關(guān)鍵推理能力為核心的高效范式?

      這份長(zhǎng)達(dá) 58 頁的報(bào)告正是螞蟻針對(duì)這一挑戰(zhàn)交出的答卷,它從模型架構(gòu)、預(yù)訓(xùn)練、后訓(xùn)練和基礎(chǔ)設(shè)施四個(gè)層面,系統(tǒng)性地表明:Ling 2.0 是一個(gè)為推理而生的整體工程。它不是零散技術(shù)的堆砌,而是四大支柱協(xié)同作用的產(chǎn)物。

      支柱一:架構(gòu)與 Scaling Law

      萬億模型的設(shè)計(jì)圖

      在萬億參數(shù)時(shí)代,設(shè)計(jì)模型就像是在「戴著鐐銬跳舞」,其中有著高計(jì)算成本、長(zhǎng)訓(xùn)練周期以及難以預(yù)測(cè)的穩(wěn)定性等各種問題問題。螞蟻的答案是極致稀疏的架構(gòu)極致精準(zhǔn)的預(yù)測(cè)

      Ling 2.0 系列(從 16B 到 1T)全部采用統(tǒng)一的「高稀疏、細(xì)粒度」 MoE 架構(gòu):其總專家數(shù)多達(dá) 256 個(gè),但每次前向傳播僅激活 8 個(gè)專家和 1 個(gè)共享專家,激活率低至驚人的3.5%



      Ling 2.0 系列模型的關(guān)鍵架構(gòu)配置和訓(xùn)練超參數(shù)

      這帶來了什么?報(bào)告證實(shí),Ling 模型實(shí)現(xiàn)了相較于同等性能的密集 (Dense) 模型近 7 倍的計(jì)算效率杠桿

      然而,更核心的秘密武器是Ling Scaling Laws



      最優(yōu)超參數(shù)與最優(yōu)模型 - 數(shù)據(jù)分配的 Scaling Law。藍(lán)線和紅線分別表示在相同訓(xùn)練條件下擬合得到的 MoE 模型與密集模型的深度學(xué)習(xí)。

      這不僅是一個(gè)公式,更是螞蟻建立的一套「AI 風(fēng)洞」實(shí)驗(yàn)系統(tǒng)。它能通過極低成本(不到 1%)的小規(guī)模模型實(shí)驗(yàn),高保真地預(yù)測(cè)和外推萬億參數(shù)模型在超過 1e25 FLOPs 的巨大計(jì)算量下的性能和最優(yōu)超參數(shù)。



      Ling 風(fēng)洞實(shí)驗(yàn)設(shè)計(jì)示意圖 (a) 及示例分析 (b)

      Ling 2.0 的所有關(guān)鍵架構(gòu)決策都是在這套定律的指導(dǎo)下完成的,例如「為何是激活 8 個(gè)專家?」(報(bào)告中被驗(yàn)證為最優(yōu)范圍)。

      這種強(qiáng)大的預(yù)測(cè)能力是螞蟻敢于啟動(dòng) Ling-1T 訓(xùn)練并確保其穩(wěn)定和高效的工程底氣。同時(shí),Ling 2.0 架構(gòu)還原生集成了MTP(Multi-Token Prediction),從底層設(shè)計(jì)上強(qiáng)化了數(shù)學(xué)與代碼這兩大關(guān)鍵推理能力。

      值得一提的是,這個(gè)統(tǒng)一架構(gòu)不僅被用于 Ling 系列模型,也是 Ring-1T 等推理模型的骨架。正如 Ling 團(tuán)隊(duì)最新發(fā)布的 Ring-linear 混合線性架構(gòu)報(bào)告(arXiv:2510.19338)所示,即便是探索線性注意力(Linear Attention),其 MoE 結(jié)構(gòu)的設(shè)計(jì)和擴(kuò)展依然嚴(yán)格遵循 Ling Scaling Laws 的指導(dǎo)。

      支柱二:預(yù)訓(xùn)練與中訓(xùn)練

      為推理預(yù)激活

      如果說架構(gòu)是骨架,那么預(yù)訓(xùn)練就是為模型注入靈魂。Ling 2.0 的靈魂從一開始就為推理而生。

      基于 20T tokens 的海量預(yù)訓(xùn)練數(shù)據(jù),Ling 2.0 貫徹了「推理優(yōu)先」的原則。

      其報(bào)告披露,其 Ling Math 和 Ling Code 高質(zhì)量推理數(shù)據(jù)集在預(yù)訓(xùn)練過程中占比從 32% 逐步提升到了 46%。這可以讓模型在形成世界知識(shí)的初期就建立起強(qiáng)大的邏輯和結(jié)構(gòu)化思維。



      Ling 2.0 的預(yù)訓(xùn)練與中訓(xùn)練階段。其中采用了多階段訓(xùn)練策略,將上下文窗口從 4K 逐步擴(kuò)展至 128K,并在訓(xùn)練早期就引入推理與鏈?zhǔn)剿季S(CoT)數(shù)據(jù),這樣可以提前激活模型的推理能力。

      而其后的中訓(xùn)練 (Mid-Training) 階段更是 Ling 2.0 區(qū)別于常規(guī)模型的點(diǎn)睛之筆。這個(gè)創(chuàng)新也正是吳恩達(dá)所關(guān)注的一大焦點(diǎn),他指出:



      Ling-1T 的整體表現(xiàn)優(yōu)于強(qiáng)大的 Kimi K2,并顯著縮小了開源模型與閉源非推理模型之間的差距。其成功的關(guān)鍵因素似乎在于超大規(guī)模的參數(shù)量以及在思維鏈上的預(yù)訓(xùn)練。由于在預(yù)訓(xùn)練階段對(duì)思維鏈進(jìn)行了高度強(qiáng)化,Ling-1T 在生成回答時(shí)往往會(huì)自發(fā)地先形成一條思維鏈,但這一過程卻并非獨(dú)立的推理階段。這樣的訓(xùn)練方式模糊了推理型模型與非推理型模型之間的界限。

      具體來說,在預(yù)訓(xùn)練和 SFT 之間,Ling 團(tuán)隊(duì)創(chuàng)新性地引入了大量高質(zhì)量思維鏈數(shù)據(jù)。這一步操作,相當(dāng)于在模型 SFT 前就提前將其強(qiáng)大的推理潛能激活 (Pre-Activation),從而可為其后續(xù)的對(duì)齊訓(xùn)練提供更高的性能上限和更穩(wěn)定的思維基礎(chǔ)。

      此外,Ling 團(tuán)隊(duì)還引入了他們之前提出的WSM(Warmup-Stable-Merge)調(diào)度器這一訓(xùn)練技術(shù)。它拋棄了難以把握時(shí)機(jī)的傳統(tǒng)學(xué)習(xí)率衰減(LR decay),轉(zhuǎn)而在訓(xùn)練中保持學(xué)習(xí)率穩(wěn)定,最后通過檢查點(diǎn)合并(Checkpoint Merging)來實(shí)現(xiàn)模型收斂。這種設(shè)計(jì)不僅更靈活,還為下游任務(wù)帶來了 1-2% 的平均性能提升。



      WSM 預(yù)訓(xùn)練管線的偽代碼,來自螞蟻 Ling 團(tuán)隊(duì)與人大高瓴人工智能學(xué)院合作論文 arXiv:2507.17634

      支柱三:后訓(xùn)練對(duì)齊

      行業(yè)首創(chuàng)的句子級(jí) RL

      當(dāng)一個(gè)模型已被「預(yù)激活」了推理能力,傳統(tǒng)的后訓(xùn)練方法已不足以駕馭它。Ling 2.0 在對(duì)齊階段的算法革新,尤其是強(qiáng)化學(xué)習(xí)(RL)層面,展現(xiàn)了驚人的創(chuàng)造力。



      Ling 2.0 系列模型的后訓(xùn)練流程

      首先,在 SFT 階段,Ling 團(tuán)隊(duì)采用DFT(Decoupled Fine-Tuning)策略,通過設(shè)計(jì)兩種不同的系統(tǒng)提示詞(如 detailed think on 與 detailed think off),讓模型在同一套權(quán)重下,學(xué)會(huì)了「即時(shí)響應(yīng)」和「深度推理」兩種可控模式。



      而接下來的 RL 訓(xùn)練,其核心目標(biāo)就是將「深度推理」這一模式的潛力壓榨到極致。隨后,Evo-CoT(演進(jìn)式思維鏈)RL 訓(xùn)練開始接管,持續(xù)優(yōu)化模型的深度推理模式。這使得 Ling 這樣的非推理模型也能根據(jù)問題的復(fù)雜度動(dòng)態(tài)地?cái)U(kuò)展其推理深度和成本。



      Evo-CoT 的數(shù)學(xué)描述

      而 Ling 2.0 在 RL 上的核心創(chuàng)舉是LPO(Linguistic-unit Policy Optimization)算法。這是一個(gè)堪稱行業(yè)首創(chuàng)的思路:當(dāng)前的 RL 算法(如 GRPO 或 GSPO)通常在 token 級(jí)別或序列(sequence)級(jí)別進(jìn)行優(yōu)化。Ling 團(tuán)隊(duì)認(rèn)為,對(duì)于推理任務(wù)而言,這兩種粒度要么過于破碎(難以承載語義),要么過于粗糙(獎(jiǎng)勵(lì)信號(hào)模糊)。



      LPO 的目標(biāo)函數(shù)

      為此,LPO 首次將語言單元(Linguistic-unit,即句子)作為 RL 策略更新的基礎(chǔ)動(dòng)作單元。

      這一創(chuàng)舉價(jià)值巨大。一個(gè)「句子」恰好是承載一個(gè)完整邏輯步驟或語義信息的自然邊界。通過在句子粒度上對(duì)齊獎(jiǎng)勵(lì)信號(hào),Ling 2.0 實(shí)現(xiàn)了極高的訓(xùn)練穩(wěn)定性和泛化性。報(bào)告顯示,僅此一項(xiàng)優(yōu)化,就在復(fù)雜推理任務(wù)上帶來了約 10% 的顯著性能提升。



      Ling 2.0 模型在強(qiáng)化學(xué)習(xí)訓(xùn)練中使用 LPO 的獎(jiǎng)勵(lì)曲線。左圖:在訓(xùn)練數(shù)據(jù)上的獎(jiǎng)勵(lì)變化,相較于 GRPO、GSPO 以及 GSPO(Token Mean)基線,LPO 表現(xiàn)出更平滑的增長(zhǎng)與更高的穩(wěn)定性,沒有出現(xiàn)明顯的平臺(tái)期或崩潰。右圖:在 AIME 2025 測(cè)試集上的獎(jiǎng)勵(lì)曲線,展示了由于采用句子級(jí)策略更新而帶來的更快收斂速度與更好的泛化能力。

      當(dāng)然,強(qiáng)大的 RL 算法也需要精準(zhǔn)的裁判。在處理創(chuàng)意寫作、對(duì)話等開放性主觀任務(wù)時(shí),Ling 2.0 引入了GAR(Group Arena Reward)機(jī)制。不同于給單個(gè)答案打絕對(duì)分,GAR 采用循環(huán)賽式的相對(duì)比較:它將同一策略生成的多個(gè)答案放入競(jìng)技場(chǎng) (Arena) 中進(jìn)行兩兩對(duì)比,以相對(duì)排名代替絕對(duì)分?jǐn)?shù)。這種機(jī)制能有效降低主觀評(píng)估中的噪聲和方差,為模型在開放域的對(duì)齊提供了更可靠的獎(jiǎng)勵(lì)信號(hào)。



      用于開放性主觀任務(wù)的 GAR 機(jī)制

      而支撐 LPO 和 GAR 運(yùn)行的,則是一個(gè)強(qiáng)大的統(tǒng)一獎(jiǎng)勵(lì)模型系統(tǒng)(Reward Model System)。該系統(tǒng)可擴(kuò)展性極強(qiáng),能并發(fā)處理高達(dá) 40K 的異構(gòu)獎(jiǎng)勵(lì)請(qǐng)求,無論是基于規(guī)則的、基于模型的、還是需要在沙箱環(huán)境中執(zhí)行代碼的復(fù)雜驗(yàn)證任務(wù),從而可確保整個(gè)后訓(xùn)練流程的高效與穩(wěn)定。

      支柱四:基礎(chǔ)設(shè)施

      全棧 FP8 與 4C 工程學(xué)

      萬億模型的訓(xùn)練終究是一場(chǎng)工程競(jìng)賽。Ling 2.0 報(bào)告分享了其支撐萬億參數(shù)穩(wěn)定運(yùn)行的基礎(chǔ)設(shè)施,其中既有巨大的成功,也有坦誠的「教訓(xùn)」。

      萬億規(guī)模的全鏈路 FP8 訓(xùn)練

      Ling 2.0 系列的 Ling-1T 是目前已知最大規(guī)模的、完全使用 FP8 訓(xùn)練的開源模型。

      這絕非易事。FP8 雖能大幅節(jié)省顯存并提升計(jì)算速度,但其極低的精度會(huì)對(duì)萬億模型的穩(wěn)定性構(gòu)成致命威脅。Ling 團(tuán)隊(duì)通過細(xì)粒度逐塊量化(fine-grained block-wise quantization)策略,結(jié)合 QKNorm 等新技術(shù)抑制訓(xùn)練中棘手的異常值(outlier)擴(kuò)散,并輔以一個(gè)實(shí)時(shí)的FP8 訓(xùn)練保障系統(tǒng) (FP8 Training Safeguard System)進(jìn)行全時(shí)監(jiān)控。

      最終結(jié)果著實(shí)驚人:在 1T 模型和 900B 數(shù)據(jù)的規(guī)模上,F(xiàn)P8 訓(xùn)練達(dá)成了與 BF16 幾乎一樣的損失表現(xiàn) (差距 ≤ 0.25%),同時(shí)模型算力利用率(MFU)提升了 15%,也即 FP8 可帶來 15% 的端到端訓(xùn)練加速。這基本宣告了 FP8 在萬億模型訓(xùn)練上的可行性與經(jīng)濟(jì)性



      基于 Ling-1T 測(cè)得的 FP8 與 BF16 訓(xùn)練損失對(duì)比

      異構(gòu)架構(gòu)的管線設(shè)計(jì)

      Ling 2.0 的設(shè)計(jì)并非是均勻的層堆疊,它混合了 Dense(密集層)、MoE(稀疏層)和 MTP(多 token 預(yù)測(cè)) 等計(jì)算特性截然不同的模塊,是一個(gè)典型的異構(gòu)架構(gòu)。

      在管線并行(PP)訓(xùn)練中,這就好比一條裝配線上有的工位快、有的工位慢,極易產(chǎn)生管線氣泡(pipeline bubble),進(jìn)而導(dǎo)致 GPU 集體「摸魚」。

      為此,Ling 團(tuán)隊(duì)設(shè)計(jì)了異構(gòu)細(xì)粒度管線(Heterogeneous fine-grained pipeline)調(diào)度策略。該策略允許將 MTP 這樣的復(fù)雜模塊拆分,并支持在不同的管線并行階段靈活分配不同數(shù)量的 Transformer 層,最終實(shí)現(xiàn)更均衡的負(fù)載分配。這種算法 - 系統(tǒng)協(xié)同設(shè)計(jì)成功將端到端訓(xùn)練吞吐量提升了 40% 以上。



      5 個(gè)流水線并行階段(PP rank)的 1F1B 與異構(gòu)流水線調(diào)度對(duì)比示例。與基線方法 1F1B 相比,新方法可顯著減少流水線氣泡,從而大幅降低整體訓(xùn)練成本。

      Ling 2.0 融合的創(chuàng)新還不止于此,Ling 團(tuán)隊(duì)還優(yōu)化了包括節(jié)點(diǎn)內(nèi) DeepEP 通信、一系列融合算子、更快的專家層重計(jì)算以及高效的分布式檢查點(diǎn)存儲(chǔ)等諸多工程細(xì)節(jié)。更多詳情請(qǐng)參閱原論文。



      Ling 團(tuán)隊(duì)為 Ling-1T 在預(yù)訓(xùn)練階段使用的各類優(yōu)化任務(wù)概覽

      一個(gè)苦澀的教訓(xùn)

      最后,Ling 2.0 技術(shù)報(bào)告坦誠地分享了一個(gè)苦澀的教訓(xùn)。這部分內(nèi)容也是報(bào)告中最具「真?開源」精神的一大亮點(diǎn)。

      Ling 團(tuán)隊(duì)回顧了他們?cè)谟?xùn)練萬億規(guī)模 MoE 模型時(shí)的一次重要嘗試:實(shí)現(xiàn)計(jì)算與通信的重疊(Computation–Communication Overlapping),這是長(zhǎng)期以來被視為提升分布式訓(xùn)練效率的關(guān)鍵方向。他們?cè)噲D通過 DualPipe 或 DeepEP 的 A2A(All-to-All)重疊技術(shù),將專家計(jì)算的耗時(shí)隱藏在通信延遲背后。

      然而,該報(bào)告稱,盡管付出了巨大努力,最終的端到端加速收效甚微。

      為什么會(huì)失敗?Ling 團(tuán)隊(duì)給出了深刻的診斷:這些重疊策略需要配置一個(gè)非常大的專家并行(EP)規(guī)模才能獲益;但這種配置難以應(yīng)對(duì) MoE 模型的一個(gè)「阿喀琉斯之踵」,即淺層 MoE 層的路由不均問題

      換言之,在模型的淺層,路由策略分配給不同專家的 Token 數(shù)量很不均衡。這會(huì)導(dǎo)致在采用大 EP 規(guī)模時(shí),某些 GPU 上的某些管線階段會(huì)因?yàn)槌休d了「熱門」專家而內(nèi)存溢出(OOM),系統(tǒng)被迫采用一種妥協(xié)的、非最優(yōu)的管線劃分策略,而這種妥協(xié)最終會(huì)吞沒計(jì)算 - 通信重疊帶來的所有理論收益。

      這雖是個(gè)「失敗」的結(jié)論,但卻價(jià)值千金,因?yàn)樗羁痰亟沂玖耍?strong>在萬億參數(shù)規(guī)模下,任何試圖忽視硬件和系統(tǒng)異構(gòu)性(如路由不均)的純算法優(yōu)化,都可能在工程落地時(shí)徹底失效。真正的效率提升,必須建立在算法與系統(tǒng)的協(xié)同優(yōu)化之上。

      這一坦誠的失敗分析為整個(gè) AI 社區(qū)提供了寶貴的避坑指南,其價(jià)值不亞于一項(xiàng)成功的技術(shù)。它也引出了螞蟻的4C 工程哲學(xué)(Correct, Consistent, Complete, Co-Design),即必須在算法設(shè)計(jì)之初就與系統(tǒng)工程協(xié)同,才能構(gòu)建出穩(wěn)定、高效、可復(fù)現(xiàn)的萬億參數(shù)大模型。

      不止于模型

      這是一份構(gòu)建萬億基座的開源 SOP

      從萬億模型的設(shè)計(jì)藍(lán)圖 Ling Scaling Law 到行業(yè)首創(chuàng)的 LPO 句子級(jí)強(qiáng)化學(xué)習(xí)算法,再到全棧 FP8 的萬億訓(xùn)練實(shí)踐,Ling 2.0 技術(shù)報(bào)告的透明度和深度,充分體現(xiàn)了螞蟻集團(tuán)在 AI 浪潮中真?開源的誠意與技術(shù)自信。

      Ling 2.0 的發(fā)布,其價(jià)值已遠(yuǎn)超模型本身。它不再只是一個(gè)單一的模型系列,而是螞蟻集團(tuán)提供給開源社區(qū)的一套完整的、經(jīng)過驗(yàn)證的、可從百億擴(kuò)展至萬億的 AI 基礎(chǔ)模型 SOP(標(biāo)準(zhǔn)作業(yè)流程)。

      在 AI 軍備競(jìng)賽日益導(dǎo)向閉源和算力壁壘的當(dāng)下,這樣一份透明、詳盡的「萬億模型作業(yè)流程」顯得尤為可貴。它為社區(qū)展示了另一條 Scaling 路線:即通往 AGI 的道路不僅可以依靠無限的算力堆砌,更可以通過極致的工程(如 FP8)、精準(zhǔn)的預(yù)測(cè)(如 Scaling Law)和創(chuàng)新的算法(如 LPO)來實(shí)現(xiàn)。

      正如報(bào)告所展示的,Ling 2.0 只是一個(gè)強(qiáng)大的基座,其真正的潛力才剛剛開始釋放:無論是已經(jīng)大放異彩的 Ring 系列推理模型,還是探索極致效率的混合線性架構(gòu)。

      這份報(bào)告為整個(gè)社區(qū)探索更高效、更強(qiáng)大、更通用的智能體奠定了堅(jiān)實(shí)的基礎(chǔ),也讓我們看到了螞蟻集團(tuán)在 Scaling Law 時(shí)代下,堅(jiān)定地走向開放與協(xié)作的技術(shù)決心。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      面試通過,國足新帥或敲定,45歲,效力豪門,年薪新低,鄭智好友

      面試通過,國足新帥或敲定,45歲,效力豪門,年薪新低,鄭智好友

      體育有點(diǎn)水
      2025-11-05 12:25:58
      邵佳一,國足新帥!

      邵佳一,國足新帥!

      新京報(bào)
      2025-11-05 17:19:38
      只喂餅?zāi)钒团逡隣?zhēng)議?皇馬新核被傳奇警告:還不夠

      只喂餅?zāi)钒团逡隣?zhēng)議?皇馬新核被傳奇警告:還不夠

      運(yùn)動(dòng)全視界
      2025-11-04 16:30:35
      449平方米,1.17億元!馬來西亞首富之子郭孔華,買下上海大平層,該樓盤曾3小時(shí)售出158套房

      449平方米,1.17億元!馬來西亞首富之子郭孔華,買下上海大平層,該樓盤曾3小時(shí)售出158套房

      每日經(jīng)濟(jì)新聞
      2025-11-02 23:32:08
      中方定罪后,荷蘭方面終于承認(rèn),這件事怎么解決,還得等中國點(diǎn)頭

      中方定罪后,荷蘭方面終于承認(rèn),這件事怎么解決,還得等中國點(diǎn)頭

      桑啟紅原
      2025-11-05 15:08:51
      又一個(gè)冬天要到了,烏克蘭對(duì)俄羅斯打法開始變了

      又一個(gè)冬天要到了,烏克蘭對(duì)俄羅斯打法開始變了

      軍機(jī)圖
      2025-11-05 16:47:46
      新疆多地遭遇下半年最強(qiáng)降雪,烏魯木齊雪深或達(dá)25厘米,賽里木湖變身“冰雪王國”,氣象部門發(fā)布提醒

      新疆多地遭遇下半年最強(qiáng)降雪,烏魯木齊雪深或達(dá)25厘米,賽里木湖變身“冰雪王國”,氣象部門發(fā)布提醒

      極目新聞
      2025-11-05 14:26:46
      特朗普已經(jīng)不裝了,直接對(duì)臺(tái)灣“改口”,中國統(tǒng)一進(jìn)入高速車道?

      特朗普已經(jīng)不裝了,直接對(duì)臺(tái)灣“改口”,中國統(tǒng)一進(jìn)入高速車道?

      李博世財(cái)經(jīng)
      2025-11-04 17:07:08
      1952年,一農(nóng)民找到廣州市委書記:媽,我是您失散23年的兒子

      1952年,一農(nóng)民找到廣州市委書記:媽,我是您失散23年的兒子

      知否否知
      2024-11-03 12:04:09
      樓市大跌30%后,銀行擠滿了瘋狂換日元的香港人

      樓市大跌30%后,銀行擠滿了瘋狂換日元的香港人

      掘金日本房產(chǎn)
      2025-11-04 19:28:57
      恭喜!全紅嬋新搭檔奪第二金:22歲破繭成蝶,擊敗陳芋汐新搭檔

      恭喜!全紅嬋新搭檔奪第二金:22歲破繭成蝶,擊敗陳芋汐新搭檔

      李喜林籃球絕殺
      2025-11-04 23:03:26
      鄭麗文再拋重磅承諾,盧秀燕不裝了,吳敦義出手,王鴻薇苦口婆心

      鄭麗文再拋重磅承諾,盧秀燕不裝了,吳敦義出手,王鴻薇苦口婆心

      墨蘭史書
      2025-11-05 12:05:03
      臺(tái)灣回歸還有一種新方案,國民黨若同意,解放軍或無需動(dòng)武

      臺(tái)灣回歸還有一種新方案,國民黨若同意,解放軍或無需動(dòng)武

      瞻史
      2025-10-31 02:20:52
      中國希望看到的一幕將發(fā)生,特朗普緊急發(fā)文,這一次他真的輸不起

      中國希望看到的一幕將發(fā)生,特朗普緊急發(fā)文,這一次他真的輸不起

      現(xiàn)代小青青慕慕
      2025-11-05 09:05:21
      全球第一,固態(tài)電池巨頭,拿下120億訂單!

      全球第一,固態(tài)電池巨頭,拿下120億訂單!

      飛鯨投研
      2025-11-05 09:08:06
      中方下了“最后通牒”,認(rèn)定荷蘭100%擔(dān)責(zé),再不悔改一切后果自負(fù)

      中方下了“最后通牒”,認(rèn)定荷蘭100%擔(dān)責(zé),再不悔改一切后果自負(fù)

      鐵錘簡(jiǎn)科
      2025-11-05 15:19:29
      快船誕生最毒瘤兩個(gè)點(diǎn)!祖巴茨攻守全面下滑,保羅習(xí)慣性帶崩球隊(duì)

      快船誕生最毒瘤兩個(gè)點(diǎn)!祖巴茨攻守全面下滑,保羅習(xí)慣性帶崩球隊(duì)

      籃球資訊達(dá)人
      2025-11-05 16:21:22
      中投命中率第1!湖人化身中投豪強(qiáng):四大高手崛起,沖冠更有戲?

      中投命中率第1!湖人化身中投豪強(qiáng):四大高手崛起,沖冠更有戲?

      李喜林籃球絕殺
      2025-11-05 17:11:34
      除夕夜,爸爸訂了7人包間,誰知爺爺竟叫來了叔叔一家

      除夕夜,爸爸訂了7人包間,誰知爺爺竟叫來了叔叔一家

      小秋情感說
      2025-11-05 13:43:40
      對(duì)岸統(tǒng)一的風(fēng)向:賴清德由獨(dú)轉(zhuǎn)統(tǒng),或能成就統(tǒng)一功績(jī)~

      對(duì)岸統(tǒng)一的風(fēng)向:賴清德由獨(dú)轉(zhuǎn)統(tǒng),或能成就統(tǒng)一功績(jī)~

      蛙斯基娛樂中
      2025-11-05 05:53:03
      2025-11-05 17:47:00
      機(jī)器之心Pro incentive-icons
      機(jī)器之心Pro
      專業(yè)的人工智能媒體
      11655文章數(shù) 142498關(guān)注度
      往期回顧 全部

      科技要聞

      大轉(zhuǎn)彎!特朗普再提名馬斯克盟友任NASA局長(zhǎng)

      頭條要聞

      足球報(bào):邵佳一出任國足新帥 將攜外籍助教上任

      頭條要聞

      足球報(bào):邵佳一出任國足新帥 將攜外籍助教上任

      體育要聞

      贏下皇馬,會(huì)是利物浦的轉(zhuǎn)折點(diǎn)嗎?

      娛樂要聞

      港星林尚武突發(fā)心臟病去世

      財(cái)經(jīng)要聞

      中方官宣!對(duì)美關(guān)稅,調(diào)整!

      汽車要聞

      智己LS9入局"9系"混戰(zhàn) 全尺寸SUV市場(chǎng)迎來新變量

      態(tài)度原創(chuàng)

      時(shí)尚
      家居
      親子
      本地
      手機(jī)

      壞了,看到劇本殺鼻祖了!

      家居要聞

      別樣府院 暢享詩意生活

      親子要聞

      重度自閉癥孩子幸不幸福,要看帶養(yǎng)人費(fèi)不費(fèi)勁

      本地新聞

      秋顏悅色 | 在榆中,秋天是一場(chǎng)盛大的視覺交響

      手機(jī)要聞

      小米R(shí)EDMI Turbo 5 Pro曝光:9000mAh大電池+超聲波指紋

      無障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 免费无码久久成人网站入口| 日韩乱码人妻无码中文字幕视频| 国产精品福利中文字幕| 国产亚洲精品第一综合另类| 炉霍县| av天堂久久天堂av| 亚洲一区二区三成人精品| 日区中文字幕一区二区| 国产线播放免费人成视频播放| 最新亚洲人成网站在线观看| 国产丝袜在线精品丝袜| 日本中文字幕有码在线视频| 在线观看特色大片免费网站| 一本色道久久东京热| 性久久久久久| 天干天干夜天干天天爽| 天堂mv在线mv免费mv香蕉| 广昌县| 天堂网亚洲综合在线| 国产一二三区在线| 亚洲人成网站77777在线观看| 视频一区二区三区高清在线 | 99久久激情国产精品| 狠狠做五月深爱婷婷伊人| 免费国产一区二区不卡| 亚洲欧美人成人综合在线播放| 樱桃熟了a级毛片| 国产农村激情免费专区| 亚洲综合一区二区三区不卡| 人妻在线中文字幕| 国产专区一va亚洲v天堂| 亚洲精品国模一区二区| 洛浦县| 亚洲女同在线播放一区二区| 自拍亚洲一区欧美另类| 熟女精品国产一区二区三区| 18禁超污无遮挡无码网址| 亚洲av无码精品蜜桃| 一区二区三区国产亚洲自拍| 福利视频一区二区在线| 国产无遮挡免费真人视频在线观看|