Pos2Distill團隊 投稿
量子位 | 公眾號 QbitAI
語言模型遭遇嚴重的位置偏見,即模型對不同上下?位置的敏感度不?致。模型傾向于過度關(guān)注輸?序列中的特定位置,嚴重制約了它們在復(fù)雜推理、??本理解以及模型評估等關(guān)鍵任務(wù)上的表現(xiàn)。
例如,在對?兩個候選答案時,模型常因偏好?個選項?損害其作為評估器的公正性與可靠性。
![]()
針對這?挑戰(zhàn),論?提出了 Pos2Distill,?個創(chuàng)新的“位置到位置”蒸餾框架。該框架旨在將模型在優(yōu)勢位置的強?能?遷移?劣勢位置,從?有效緩解位置偏?。
其核?思想恰如古語所云:“解鈴還須系鈴?”,利?模型??已習(xí)得的知識,來糾正其??的系統(tǒng)性偏差。
其基本原理可以概括為:利?位置本?造成的性能不均衡,來對抗位置偏差這?問題。
團隊發(fā)現(xiàn),位置偏差在“檢索”和“推理”這兩類任務(wù)中誘發(fā)的表現(xiàn)不同,因此基于上述核?原理,團隊分別設(shè)計了兩種專?的實現(xiàn)?案:Pos2Distill-R1和Pos2Distill-R2。
采?Pos2Distill?法后,模型在??本檢索和推理任務(wù)中的所有位置上都表現(xiàn)出更好的?致性,這兩個專?設(shè)計的系統(tǒng)不僅在各?對應(yīng)的任務(wù)上表現(xiàn)優(yōu)異,彼此之間還表現(xiàn)出很強的跨任務(wù)泛化能?。
![]()
已有的工作:在信息豐富的場景中,例如檢索增強?成、?上下?推理以及將?語?模型(LLM)?作評判者等,位置偏差構(gòu)成了重?障礙。當(dāng)關(guān)鍵信息被任意分布在輸?的各個位置時,LLM 常常?法有效識別和整合這些核 ?內(nèi)容,最終導(dǎo)致其在各種應(yīng)?中出現(xiàn)意外的失敗。為緩解PB問題:
一類工作試圖通過修改與上下?敏感度不均相關(guān)的關(guān)鍵架構(gòu)組件或內(nèi)部表示來進?減輕位置偏見。然?,盡管近期在縮?性能差距??取得了?些進展,模型在“優(yōu)勢位置”和“劣勢位置”之間的信息利?率依然存在巨?差異。
另?類研究?法則采?了密集的上下?感知訓(xùn)練,通過合成具有細粒度信息感知的訓(xùn)練數(shù)據(jù)來提升模型性能。但是,這類數(shù)據(jù)驅(qū)動的?法通常在數(shù)據(jù)合成和計算資源??都需付出?昂的成本。
因此,學(xué)術(shù)界和?業(yè)界迫切需要?種能夠克服這些局限、既有效??效的策略來緩解PB。
方法
先導(dǎo)實驗:分析揭示,PB在“檢索”和“推理”這兩種不同的任務(wù)范式下表現(xiàn)出不同的?為。
Natural PB for Retrieval:在檢索任務(wù) (retrieval)中,PB主要表現(xiàn)為“詞元偏移”(token-shifting),即在黃金文檔所處位置不同,大部分的response具有相似的前綴,只在關(guān)鍵的生成位置發(fā)生分歧,由此誘發(fā)retrieval的失敗。 一旦這些錯誤的token能夠被修正,模型又可以輸出正確的答案;
Compound PB for Reasoning:在推理任務(wù)中,PB 既體現(xiàn)在檢索過程中的變化,也體現(xiàn)在推理過程中發(fā)生的改變,最終導(dǎo)致思維鏈條的偏移(thought shifting)。因此,至關(guān)重要的是通過整合真正相關(guān)的信息與推理鏈來重塑整體的響應(yīng)軌跡。
![]()
針對這兩種情況相應(yīng)地開發(fā)了兩個系統(tǒng):Pos2Distill-R1 和 Pos2Distill-R2。Pos2Distill-R1 通過引? KL 散度(Kullback-Leibler divergence)損失來提供細粒度的糾正信號,從?緩解檢索任務(wù)中的“詞元偏移”。
Pos2Distill-R2 則通過蒸餾來?優(yōu)勢位置輸?的優(yōu)質(zhì)CoT響應(yīng),來指導(dǎo)和糾正劣勢位置的推理軌跡,從?解決推理任務(wù)中的“思維偏移”。
![]()
算法設(shè)計(Pos2Distill-R1 for Retrieval):
該框架由兩個核心模塊組成:如圖 4a 所示的平凡位置激活和優(yōu)勢位置錨定。前者促進將高表現(xiàn)的優(yōu)勢位置中的有效處理能力遷移至利用不足的無效位置;后者確保優(yōu)勢位置已建立性能的保持,從而縮小無效位置與優(yōu)勢位置之間的差距。
平凡位置激活:為糾正 token shifting 行為,在每個生成步驟中利用 KL 散度作為細粒度的對齊信號。
![]()
位置感知的對齊:PB引發(fā)的優(yōu)勢位置與不同平凡位置之間的對齊難度具有位置依賴性,因此具有高對齊難度的位置應(yīng)該優(yōu)先實施梯度更新。
![]()
因此激活平凡位置的損失為:
![]()
優(yōu)勢位置的錨定:在蒸餾過程中,模型會意識到關(guān)鍵信息可能出現(xiàn)在上下文窗口的任意位置,這可能會削弱對優(yōu)勢位置(sink position)的顯著注意力,從而潛在地損害在多樣下游任務(wù)中的整體能力。為防止這一問題引入錨定損失,以保持優(yōu)勢位置的有效性。
![]()
訓(xùn)練目標損失:融合了激活損失(activation loss)和錨定損失(anchoring loss),形式化表示為:
![]()
算法設(shè)計(Pos2Distill-R2 for Reasoning):
首先從優(yōu)勢位置 采樣鏈式思維(CoT)推理軌跡。類似于檢索任務(wù)的過程,為每組位置構(gòu)建 (K) 個不同的平凡提示。隨后使用交叉熵(CE)損失函數(shù)對提示及其對應(yīng)的推理軌跡 (Cadv) 進行優(yōu)化,以有效捕獲推理模式。形式化地表示為:
![]()
實驗
Pos2Distill-R1實驗結(jié)果:Pos2Distill-R1 表現(xiàn)出魯棒且?致的性能,?論???檔的位置如何,都顯著減少了由位置引起的性能差異。例如,在 WebQ 數(shù)據(jù)集,Pos2Distill-R1 使 Llama-3-8B 在20個位置上實現(xiàn)了 56.7%的平均準確率。該性能與 dgold 位于最佳“匯聚位置”(sink position)時達到的 57.9% 相當(dāng),這說明從優(yōu)勢到劣勢位置的知識遷移是成功的,?這正是 Pos2Distill-R1 的核?原理。
![]()
可解釋性結(jié)果:由于PB源自于大語言模型的架構(gòu)與參數(shù),希望通過分析Pos2Distill-R1的內(nèi)部動態(tài)機制來揭示其作用原理并提供可解釋性說明。記錄當(dāng)黃金文檔從1移動到20時,對20個文檔的注意力分布。Pos2Distill-R1通過動態(tài)地將注意力焦點持續(xù)對齊到相關(guān)文檔上,從而強化了上下文一致性,促進了更為準確的檢索。
![]()
Pos2Distill-R2實驗結(jié)果:?論是在域內(nèi)性能還是在域外泛化??,Pos2Distill-R2 都超越了現(xiàn)有的?我訓(xùn)練?法。如表2,在 MusiQue 數(shù)據(jù)集上訓(xùn)練時,Pos2Distill-R2 實現(xiàn)了 42.8 的精確匹配(EM)得分,優(yōu)于所有領(lǐng)先的基線。此外,本?法表現(xiàn)出強?的跨領(lǐng)域泛化能?;例如,在 HotpotQA 數(shù)據(jù)集上,它達到了 58.3 的EM 得分,?最強的基線模型為50.9。研究結(jié)果表明,與傳統(tǒng)的逐實例訓(xùn)練相?,訓(xùn)練?語?模型在多樣化、分散的???檔位置上進?推理,可能更有效地增強其?上下?推理能?。這?洞?為提升復(fù)雜?上下?任務(wù)中的推理能?提供了新視?。
![]()
關(guān)于兩個系統(tǒng)的討論:
兩個系統(tǒng)都表現(xiàn)出對其相互任務(wù)的顯著泛化能?。具體??,主要為檢索任務(wù)優(yōu)化的 Pos2Distill-R1 證明了其增強的上下?檢索能?也改善了?上下?推理,在 MusiQue 任務(wù)上產(chǎn)?了 3.3% 的增?。相反,為推理任務(wù)優(yōu)化的 Pos2Distill-R2 表明,其所獲得的在?上下?中的推理熟練度也增強了上下?感知,從?有益于檢索性能。
盡管存在這種跨任務(wù)泛化,但每個系統(tǒng)在其主要領(lǐng)域都表現(xiàn)卓越:
Pos2Distill-R2 在復(fù)雜的?上下?推理任務(wù)上取得了更優(yōu)性能,? Pos2Distill-R1 在這些任務(wù)上表現(xiàn)滯后,在檢索任務(wù)上則反之亦然。
這表明緩解位置偏差(PB)存在著不同的底層動態(tài),并可能受到思維鏈(CoT)存在或缺失的影響。因此,開發(fā)這兩種專?化的 Pos2Distill 設(shè)計被證明是既必要?有效的。
![]()
論文地址:
https://arxiv.org/abs/2508.15709
開源地址:
https://github.com/AMAP-ML/Pos2Distill
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.