網易首頁 > 網易號 > 正文 申請入駐

ICLR 2026 Oral | Revela:用語言建模重新定義稠密檢索器訓練

0
分享至



在檢索增強生成(RAG)系統中,稠密檢索器(Dense Retriever)負責從海量文檔庫中快速找出與查詢語義最相關的段落,是整個系統的核心基礎組件。

然而,訓練一個高質量的稠密檢索器并不容易。對比學習(Contrastive Learning)長期以來是這一領域的主流范式,但存在幾個根本性局限:

  • 嚴重依賴人工標注數據:需要精心構造查詢 - 文檔正負樣本對,在代碼、法律等專業領域標注成本極高;
  • 難負樣本的困境:隨機負樣本信號太弱,難負樣本挖掘又引入額外復雜性;
  • 與語言模型預訓練目標割裂:對比損失與主流大模型的預訓練范式(下一詞預測)天然不兼容,難以充分復用預訓練知識。

這些問題在專業領域和推理密集型檢索場景下尤為突出。能否找到一條更自然、更統一的檢索器訓練路徑?來自德國達姆施塔特工業大學(TU Darmstadt)的蔡豐宇及其來自華盛頓大學、卡內基梅隆大學、微軟和騰訊 AI 實驗室的合作者給出了一個優雅的答案 -Revela:Dense Retriever Learning via Language Modeling,并憑借這一回答斬獲ICLR 2026 Oral(約 1.1% 錄取率) 和FrontierIR @ AAAI 2026 最佳論文獎



  • 論文鏈接:https://openreview.net/forum?id=e7pAjJZJWb
  • 代碼鏈接:https://github.com/TRUMANCFY/Revela
  • 模型鏈接:https://huggingface.co/trumancai/Revela-3b

核心思路:讓檢索「像語言模型一樣學習」

Revela 的核心洞察在于:將稠密檢索器的訓練目標統一到語言建模框架之下。

語言模型(LM)通過 "預測下一個 token" 來建模 token 之間的依賴關系。Revela 將這一思路類比到檢索:如果說 LM 建模的是 token 之間的依賴,那么檢索器建模的就是文本塊(chunk)之間的依賴

具體而言,Revela 引入了一種批內注意力機制(In-batch Attention):在語言建模時,一個序列的下一詞預測不僅條件于自身上文,還通過檢索器計算的相似度權重,動態地參考批次中其他相關文檔。如圖 1 中,紅色文本塊在預測下一詞時 "參考" 了語義相近的紫色文本塊,這一過程反過來驅動檢索器提高兩者之間的相似度分數。檢索器的相似度分數就此直接嵌入語言建模的優化目標,實現檢索器與語言模型的聯合端到端訓練,無需任何人工標注的查詢 - 文檔對



圖 1:Revela 訓練框架。檢索器相似度分數作為批內注意力權重,與語言模型聯合端到端訓練。紅、紫序列中高亮片段展示了檢索器如何學會關聯語義相近的文本塊。

這一設計帶來了三個關鍵優勢:

  • 訓練目標與預訓練高度一致:語言建模正是大模型預訓練所采用的目標,Revela 與之天然對齊,能充分激活預訓練模型中已有的語義理解能力。
  • 完全自監督,無需標注:原始文本自身的上下文關系即構成訓練信號,大幅降低對人工標注的依賴,使方法在數據稀缺的專業領域具備天然優勢。
  • 可擴展性強:實驗表明,隨著檢索器規模(從 135M 到 3B)、語言模型規模和批大小的增大,性能持續穩定提升,展現出良好的 Scaling 特性。

方法架構

Revela 的整體架構由兩部分組成:負責編碼文本,計算相似度的檢索器,以及提供語言建模訓練信號的語言模型,二者在訓練過程中聯合優化。



圖 2:Revela 的 Transformer Block 架構。

核心創新集中在 LM 的 Transformer Block 內部(圖 2)。每一層同時運行兩條并行的注意力路徑:標準自注意力處理單條序列內部的上下文依賴,輸出 ei;批內注意力則在此基礎上引入跨文檔維度:先對序列自身做自注意力得到 si,再以檢索器輸出的相似度分數為權重,對批次內其他文檔的自注意力輸出 ej做交叉注意力并加權聚合得到 bi,最終輸出 hi= si+ bi。其中,檢索器將批次內所有文檔編碼為向量,通過兩兩余弦相似度并經 softmax 歸一化,得到文檔間的相似度權重矩陣,直接作為批內注意力的聚合權重。

值得注意的是,跨文檔注意力的 Key 和 Value 均來自其他文檔的 ej,而非 hj,這一設計使批內注意力能夠使用只含有序列內部信息的自注意力。兩路路徑對應圖 2 注意力圖中左上與右下兩個區域,最終輸出相加后送入前饋層,共同驅動下一詞預測目標。這一設計使檢索器的相似度分數直接參與 LM 的反向傳播,檢索器由此得以被端到端優化。

在訓練數據構建上,Revela 將文檔切分為 chunk 并分批,確保每個 batch 內包含語義相關的片段,使語言建模信號天然對應有意義的跨文本依賴。訓練數據方面,通用檢索使用約 34 萬篇維基百科文檔,代碼檢索使用 StackOverflow 帖子、技術教程和庫文檔,均無需任何人工標注的查詢-文檔對。

實驗效果:無標注數據,超越商業 API

Revela 在三大權威基準上進行了系統評估,分別覆蓋代碼檢索(CoIR)推理密集型檢索(BRIGHT)通用信息檢索(BEIR)三個維度。



表 1:CoIR 代碼檢索基準上各模型的檢索性能(nDCG@10,%)。

代碼檢索(CoIR): Revela-3B 在 10 項任務平均 nDCG@10 達到 60.1,在無需任何查詢 - 文檔標注對的前提下,超越了使用海量標注數據訓練的 7B 參數有監督模型 E5-Mistral-7b-Instruct(57.3)以及 OpenAI Ada-002(45.6)、Voyage-Code-002(56.3)兩個商業 API。在 0.5B 參數規模下,Revela 即超越了同樣覆蓋代碼語料、用 2.7 億標注對訓練的 E5-PT,領先約 10 個百分點。



圖 3:BRIGHT(左)與 BEIR(右)基準上的檢索性能對比(nDCG@10,%)。

推理密集檢索(BRIGHT): Revela-3B 平均 nDCG@10 達到 20.1,僅憑維基百科文本訓練,便超越了 E5-Mistral-7b-Instruct(17.9)以及 text-embedding-3-large(OpenAI,17.9)、voyage-large-2-instruct(Voyage,17.9)、cohere-embed-english-v3.0(Cohere,16.6)等主流商業 API,充分體現了語言建模目標對深層語義推理能力的激活效果。

通用檢索(BEIR): Revela-3B 與弱監督基線 E5-PT 持平(均為 45.6),但所用訓練數據約為其 1/1000,使用計算資源僅為其 1/10,極大降低了訓練成本。

意義與展望

Revela 將稠密檢索器的訓練與語言建模范式統一,打開了多個值得探索的方向:

動態索引構建:Revela 目前通過文檔分塊來保證 batch 內的語義相關性,更理想的做法是用模型的實時表示對 chunk 動態分組,但這意味著需要在訓練過程中持續更新索引,計算成本是亟待解決的挑戰。模型與數據的進一步擴展:實驗已驗證 Revela 在模型規模和 batch 大小上具備良好的 Scaling 特性,擴大訓練語料覆蓋范圍、引入更高效的注意力機制,有望帶來進一步的性能提升。反哺語言模型訓練:Revela 目前將 LM 視為輔助的訓練信號來源,但檢索器所學到的文本間語義關聯,同樣可以反過來用于指導 LM 的 batch 構建,探索對語言模型本身的改善潛力。

該成果已以 Oral 形式發表于頂級 AI 會議 ICLR 2026。本屆 ICLR 共收到近兩萬篇投稿,Oral 僅 兩百余篇,錄取率約 1.1%,是對 Revela 在自監督檢索學習領域創新價值的高度認可。

作者介紹

蔡豐宇,德國達姆施塔特工業大學(TU Darmstadt)四年級博士,師從 ACL fellow,前 ACL 主席 Iryna Gurevych 教授及 Heinz Koeppl 教授。他研究方向涵蓋稠密檢索、RAG 及 AI for science,在 ICLR,ACL, EMNLP,CVPR 等會議上發表論文十余篇。本碩分別畢業于香港科技大學(HKUST)與洛桑聯邦理工學院(EPFL)。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
普通家庭千萬不要買“小聯排別墅”,看著很高級,住著卻難受!

普通家庭千萬不要買“小聯排別墅”,看著很高級,住著卻難受!

裝修秀
2026-04-20 10:50:03
睡一覺5萬沒了!全國多地爆發新型盜刷,睡前必查手機這4處

睡一覺5萬沒了!全國多地爆發新型盜刷,睡前必查手機這4處

洞見小能手
2026-04-20 16:03:26
人民日報聯合工信部緊急預警:全體iPhone用戶,請立刻升級系統!

人民日報聯合工信部緊急預警:全體iPhone用戶,請立刻升級系統!

小柱解說游戲
2026-04-19 20:52:59
馬刺CEO:帕克馬努等人都回來看望過波波維奇,鄧肯曾陪他一起康復

馬刺CEO:帕克馬努等人都回來看望過波波維奇,鄧肯曾陪他一起康復

懂球帝
2026-04-20 15:06:59
美伊停火到期前48小時“極限博弈”:伊朗手握海峽“核按鈕”,特朗普威脅炸橋炸電廠

美伊停火到期前48小時“極限博弈”:伊朗手握海峽“核按鈕”,特朗普威脅炸橋炸電廠

紅星新聞
2026-04-20 18:03:39
爭議!趙繼偉慘敗夜發“呵呵” 自責“想找地縫鉆進去”引熱議

爭議!趙繼偉慘敗夜發“呵呵” 自責“想找地縫鉆進去”引熱議

醉臥浮生
2026-04-20 22:28:30
1983年,陳云親自批示:立即槍斃廣東縣委書記王仲,原因為何?

1983年,陳云親自批示:立即槍斃廣東縣委書記王仲,原因為何?

莫地方
2026-04-20 09:30:18
日本地震震級修正為7.7級

日本地震震級修正為7.7級

界面新聞
2026-04-20 18:59:43
太遺憾了!張雪機車荷蘭站第7名收場,總積分落后杜卡迪、雅馬哈

太遺憾了!張雪機車荷蘭站第7名收場,總積分落后杜卡迪、雅馬哈

削桐作琴
2026-04-20 16:25:31
世錦賽戰報:16強決出5席!中國2勝2負1領先,世界亞軍4-10一輪游

世錦賽戰報:16強決出5席!中國2勝2負1領先,世界亞軍4-10一輪游

球場沒跑道
2026-04-20 05:38:54
醪糟再次被關注!醫生發現:高血脂患者喝醪糟,不用多久4大變化

醪糟再次被關注!醫生發現:高血脂患者喝醪糟,不用多久4大變化

芹姐說生活
2026-04-19 15:52:53
李亞鵬,官宣了!4月17日晚,嫣然天使兒童醫院告別14年租房模式

李亞鵬,官宣了!4月17日晚,嫣然天使兒童醫院告別14年租房模式

一盅情懷
2026-04-20 14:38:27
伊朗剛說不談,美國立即開打

伊朗剛說不談,美國立即開打

新民周刊
2026-04-20 11:37:54
親戚一家五口旅游要求接待,咋拒絕?網友:直接表達的態度

親戚一家五口旅游要求接待,咋拒絕?網友:直接表達的態度

帶你感受人間冷暖
2026-04-19 23:11:39
李小冉發文:唱了一下午,吃吃喝喝回回血,疑似回應退出浪姐傳聞

李小冉發文:唱了一下午,吃吃喝喝回回血,疑似回應退出浪姐傳聞

暖心萌阿菇涼
2026-04-19 23:25:00
李春江是被做掉的?楊毅曝三年前假球內幕:李楠講義氣史琳杰活該

李春江是被做掉的?楊毅曝三年前假球內幕:李楠講義氣史琳杰活該

大嘴爵爺侃球
2026-04-20 20:56:47
國際奧委會明確表態,對2036年奧運會的申辦情況很是失望

國際奧委會明確表態,對2036年奧運會的申辦情況很是失望

安安說
2026-04-20 11:09:20
MVP選票結果流出!!他居然才1票啊!!!

MVP選票結果流出!!他居然才1票啊!!!

柚子說球
2026-04-20 22:29:11
寧波男子收到陌生賬號轉賬8萬余元,三天后奢侈品牌商家找來:員工誤將其收款碼給客戶

寧波男子收到陌生賬號轉賬8萬余元,三天后奢侈品牌商家找來:員工誤將其收款碼給客戶

齊魯壹點
2026-04-20 07:19:18
絕不談判!永久關閉豁免窗口!中國打響光刻機反擊戰

絕不談判!永久關閉豁免窗口!中國打響光刻機反擊戰

阿七說史
2026-04-20 15:10:26
2026-04-21 02:27:00
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12813文章數 142633關注度
往期回顧 全部

科技要聞

HUAWEI Pura X Max發布 售價10999元起

頭條要聞

19歲女孩挪用自家1700萬當"榜一大姐" 親爹帶女兒自首

頭條要聞

19歲女孩挪用自家1700萬當"榜一大姐" 親爹帶女兒自首

體育要聞

阿森納已拼盡全力,但你早干嘛去了...

娛樂要聞

《八千里路云和月》田家泰暗殺

財經要聞

利潤暴跌7成,字節到底在做什么

汽車要聞

把天門山搬進廠?開仰望U8沖上45度坡的那刻 我腿軟了

態度原創

家居
數碼
房產
健康
教育

家居要聞

自然慢調 慢享時光

數碼要聞

REDMI 顯示器 G Pro 27U 2026輕體驗:電競利器 桌面上的“小鋼炮”

房產要聞

大規模商改住!海口西海岸,這波項目要贏麻了!

干細胞抗衰4大誤區,90%的人都中招

教育要聞

最新!三十五中落戶順義,高中部面向西城、順義招生

無障礙瀏覽 進入關懷版