網易首頁 > 網易號 > 正文 申請入駐

阿里開源:用凍結多模態大模型為文生圖訓練提供高質量Reward

0
分享至



本文作者團隊來自阿里巴巴集團,共同第一作者為深度學習研究員劉錦龍和何旺貴,通訊作者為姜浩。

用強化學習(RL)優化文生圖模型的 prompt following 能力,是一條被廣泛驗證的路徑 —— 讓模型根據 prompt 用不同隨機種子生成多張圖片,通過 reward model 計算 reward,再利用相關 RL 算法優化模型。

這里面最核心的問題在于:reward 信號從哪來?

傳統的對齊指標如 CLIP Score 粒度過粗,無法捕捉屬性綁定、空間關系、計數等復雜語義。當前一些開源的 reward 模型(PickScore、ImageReward、HPS v2 等)受限于模型規模和有限的標注數據,難以為最前沿的工業級的文生圖模型提供有效反饋信號。而訓練一個高質量的 reward 模型往往代價不低 —— 需要耗費大量人力和成本進行標注和訓練。

另一方面,開源社區的多模態大模型(VLM)持續發展,這些模型在預訓練中見過海量圖文數據,本身就具備豐富的圖文對齊知識,是天然的圖文一致性 reward 信號來源。問題在于:如何把這些知識從 VLM 中高效地提取出來作為 reward?

為此,來自阿里巴巴的研究團隊提出了PromptEcho—— 一種無需任何標注、無需訓練 reward 模型,僅通過凍結 VLM 的一次前向推理就能獲得高質量 reward 的方法。



  • 論文:https://arxiv.org/abs/2604.12652
  • 開源代碼 & 模型權重:https://github.com/roooobotx/prompt_echo

核心方法:「PromptEcho」

一個直覺:如果圖畫對了,VLM 就能「復述」出 prompt

想象一下:你根據 prompt 畫了一幅畫,然后把畫給一位朋友看,然后問他「請描述這幅畫」。如果畫面忠實地描繪了「一只紅色的貓站在藍色的桌子上」,他大概率能準確復述出這些內容。VLM 也是一樣 —— 如果生成圖像忠實遵循了 prompt,VLM 在看到圖像后就能以很高的概率(似然)逐 token 復述出原始 prompt。或者說把 prompt 的內容「回響」(Echo)了回來,而這個復述的對數似然就是我們要找的 reward。

反過來,如果畫面中貓的顏色搞錯了,或者桌子不見了,VLM 復述出原始 prompt 的概率就會顯著下降,reward 隨之降低。



圖 1:PromptEcho 流程。給定生成圖像和引導 query,凍結 VLM 在 teacher-forcing 模式下計算原始 prompt 的 token 級交叉熵損失,取負值作為 reward。

具體而言,PromptEcho 有三個輸入:



然后,將圖像和 query 輸入凍結的 VLM,在teacher-forcing模式下(即不讓模型自由生成,而是強制輸入 prompt 的每個 token),計算 VLM 對原始 prompt 中每個 token 的預測概率。最終的 reward 就是:



一句話總結:reward = VLM 看到圖像后,能多大概率「復述」出原始 prompt。

這個 reward 與 VLM 預訓練的損失函數完全一致,只是優化對象從 VLM 的模型權重變成了文生圖模型生成的圖片。這種一致性正是 PromptEcho 高效的原因,它復用了 VLM 在預訓練中習得的圖文對齊知識。

為什么不直接讓 VLM 打分?

一個自然的問題是:既然用的是凍結 VLM,為什么不直接輸入 prompt 和圖片讓 VLM 推理圖文一致性評分做 reward?為了回答這個問題,研究團隊設計了一個對比方法「InferScore」—— 使用同一個凍結 VLM,但讓它以自回歸方式生成對圖文一致性的評分,作為 reward 信號。兩者的區別在于:

  • InferScore:讓 VLM 自回歸生成離散評分 → 受幻覺和采樣隨機性影響,reward 信號不穩定;更關鍵的是,受限于離散打分機制,對于當前最先進的文生圖模型,VLM 經常無法區分同一 prompt 下不同種子生成的多張圖片在 prompt following 程度上的細微差異 —— 很多時候對所有圖片都給出相同分數,導致 reward 信號幾乎失效
  • PromptEcho:通過預訓練損失函數計算連續的對數似然值 → 確定性、無采樣噪聲,天然具備細粒度區分能力

后續實驗將直接驗證這一點 —— 同樣基于 Qwen3-VL-32B,PromptEcho 全面優于 InferScore。

實驗

PromptEcho 在兩個當前最前沿的開源文生圖模型(Z-Image 和 QwenImage-2512)上進行了實驗,使用 Qwen3-VL-32B 作為 reward VLM。

訓練數據構建。 研究團隊收集了約 10 萬張高質量圖片,使用 Qwen3-VL-32B 配合指令 "Describe this image in detail" 為每張圖片生成約 200–400 詞的詳細描述(dense caption),涵蓋對象、屬性、空間關系、顏色、紋理等多維信息。這些 caption 構成了 RL 訓練的 prompt 集合。

DenseAlignBench :密集描述場景下對前沿模型的大幅改進

研究團隊從同源數據中劃出 2000 條不在訓練集中的 caption,構建了DenseAlignBench測試集。該測試集與訓練數據同源同分布,用于直接驗證 PromptEcho 的有效性。使用 Gemini-3-flash-preview 進行成對指令遵循維度的 GSB 評估:



在密集描述的場景下,PromptEcho 取得了對前沿模型的大幅改進。

公開 Benchmark:指令遵循能力提升的泛化測試

需要強調的是,以下公開 benchmark 的測試 prompt 與訓練數據在分布上存在顯著差異 PromptEcho 沒有針對任何 benchmark 做針對性訓練,以下結果完全反映指令遵循能力的泛化提升:



PromptEcho 在所有公開 benchmark 上均取得了一致的提升,體現了其 reward 信號源自 VLM 海量預訓練數據中的圖文對齊知識,具備跨分布、跨架構的泛化能力。

Reward VLM 越大越好:Scaling 有效

為了驗證 VLM 模型本身的質量對 PromptEcho 效果的影響,研究團隊在 Z-Image 上分別使用 Qwen3-VL-32B 和 Qwen3-VL-8B 作為 reward VLM 進行了對比實驗:



32B 在所有關鍵指標上領先 8B,表明 reward 質量隨 VLM 規模增長。這意味著隨著開源 VLM 持續進化,PromptEcho 的效果上限也會不斷提高。

PromptEcho vs InferScore

同樣使用 Qwen3-VL-32B,PromptEcho 和 InferScore 的對比:



InferScore 在 DenseAlignBench 上甚至不如 baseline。這個驗證了前面的結論:通過預訓練損失函數計算連續對數似然值,遠比讓 VLM 自回歸生成離散評分更可靠。

文字渲染:通用性驗證

PromptEcho 作為通用 Reward 范式

PromptEcho 的核心機制(VLM 交叉熵 reward)并不局限于文生圖模型的指令遵循優化。為了驗證其通用性,研究團隊將其遷移到了一個截然不同的任務:電商海報文字渲染。

遷移過程中,PromptEcho 的核心計算完全不變,僅需適配兩個輸入:

  • 引導 query:從通用描述(「Describe this image in detail」)改為結構化 OCR 識別 prompt—— 要求 VLM 識別圖中所有設計 / 營銷文字,并按語義角色分類為主標題、副標題、賣點文案、其他文字
  • :從自然語言 caption 改為 JSON 格式的結構化文字標簽(直接從編輯指令中提取)

經過 PromptEcho 強化學習之后,在 5000 條測試樣本上,海報生成模型全圖文字正確率從68% 提升到 75%(+7pp)。這說明 PromptEcho 是一種通用的 reward 構建范式—— 只需調整引導 query 和標簽格式,同一套機制就能適配不同的圖像生成模型和優化目標,無需為每個新任務重新訓練專用 reward 模型。

Case 展示

下圖展示了一些實際的 case: QwenImage-2512(Baseline)與經過 PromptEcho 訓練后的模型在同一 prompt 下的生成對比。QwenImage-2512 作為當前最先進的開源文生圖模型,整體指令遵循能力已經不錯。可以看到,經過 PromptEcho 訓練后,模型在畫面細節、空間關系、對象計數等方面有了進一步的顯著改進。



圖 2:QwenImage-2512 Baseline vs PromptEcho 生成結果對比。

總結與展望

PromptEcho 揭示了一個簡潔而深刻的洞察:VLM 的預訓練損失函數本身就是一個高質量的文圖對齊 reward 信號。 不需要標注數據,不需要訓練 reward 模型,直接利用開源 VLM 的一次前向推理,就能提供高質量的指令遵循 reward 信號。

這開辟了一條全新的 reward 構建路徑 —— 未來隨著開源社區 VLM 持續改進,PromptEcho 將獲得更高質量的 reward 信號,帶來更好的優化效果。

為了方便社區的進一步研究,研究團隊已開源代碼、模型權重和 DenseAlignBench 測試集,詳見:https://github.com/roooobotx/prompt_echo。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
凱恩本賽季歐冠已打進13球,拜仁此前僅19-20賽季的萊萬更多

凱恩本賽季歐冠已打進13球,拜仁此前僅19-20賽季的萊萬更多

懂球帝
2026-05-06 15:51:04
胖東來公布民主評議結果,19人被降級,1人被免職

胖東來公布民主評議結果,19人被降級,1人被免職

極目新聞
2026-05-06 12:30:42
剛剛!廣州發布樓市新政

剛剛!廣州發布樓市新政

中國房地產報官方號
2026-05-06 09:34:20
普京:若烏克蘭襲擊紅場閱兵式,將用堪比核彈的高超音速導彈報復

普京:若烏克蘭襲擊紅場閱兵式,將用堪比核彈的高超音速導彈報復

讓你大開眼界
2026-05-06 08:16:32
國際足聯慌了!除中國外,多個國家接連表態,堅決不買世界杯的單

國際足聯慌了!除中國外,多個國家接連表態,堅決不買世界杯的單

攬星河的筆記
2026-05-06 17:13:10
OpenAI總裁的私密日記,被馬斯克律師當庭念出:讓我賺到10億美元

OpenAI總裁的私密日記,被馬斯克律師當庭念出:讓我賺到10億美元

AppSo
2026-05-06 13:58:29
突發!東莞“規劃大拿”突然投案!雙面人生太震驚

突發!東莞“規劃大拿”突然投案!雙面人生太震驚

林子說事
2026-05-06 14:52:57
潮汕方言電影《給阿嬤的情書》熱播,汕頭、揭陽市委書記相繼觀影

潮汕方言電影《給阿嬤的情書》熱播,汕頭、揭陽市委書記相繼觀影

澎湃新聞
2026-05-06 15:10:32
幾乎都是假貨!利潤高達2400%,可為何消費者還爭相購買?

幾乎都是假貨!利潤高達2400%,可為何消費者還爭相購買?

小熊侃史
2026-04-09 09:36:50
哈佛提醒:防肌肉流失別只補蛋白!這6種營養才是關鍵

哈佛提醒:防肌肉流失別只補蛋白!這6種營養才是關鍵

橘子約定
2026-05-05 20:49:53
羅布泊的搜救是幌子?彭加木失蹤案,也許是一場騙過全世界的表演

羅布泊的搜救是幌子?彭加木失蹤案,也許是一場騙過全世界的表演

卡西莫多的故事
2026-03-05 09:55:04
楊紫連續10年為張一山慶生,22年神仙友誼,一句“主食”看哭全網

楊紫連續10年為張一山慶生,22年神仙友誼,一句“主食”看哭全網

橙星文娛
2026-05-06 09:34:14
晉祠景區五一臨時將男廁改女廁,網友:夯爆了!

晉祠景區五一臨時將男廁改女廁,網友:夯爆了!

黃河新聞網呂梁
2026-05-06 10:18:16
離開國家隊后,她幫意大利實現八連冠,如今31歲緋聞不斷仍是單身

離開國家隊后,她幫意大利實現八連冠,如今31歲緋聞不斷仍是單身

林輕吟
2026-04-28 14:25:49
“滾!姆巴佩快滾!”姆總怎么混成了人人喊打?

“滾!姆巴佩快滾!”姆總怎么混成了人人喊打?

體壇周報
2026-05-05 21:22:30
北京協和醫學院博士:千萬不要把煩死了、累死了、氣死了掛在嘴上

北京協和醫學院博士:千萬不要把煩死了、累死了、氣死了掛在嘴上

洞見
2026-04-30 09:25:41
芭提雅海灣8名外國游客不雅行為引爭議,當地民眾表示強烈不滿

芭提雅海灣8名外國游客不雅行為引爭議,當地民眾表示強烈不滿

曼谷陳大叔
2026-05-06 15:05:34
情侶在瑞士雪山頂“撒歡”,就這么被全世界直播了···

情侶在瑞士雪山頂“撒歡”,就這么被全世界直播了···

新歐洲
2026-04-21 19:37:05
這個五一,全世界都懵了:中國人不出國,老外卻擠爆中國

這個五一,全世界都懵了:中國人不出國,老外卻擠爆中國

普陀動物世界
2026-05-06 15:16:55
五糧液開盤跌6% 股價續創6年多新低

五糧液開盤跌6% 股價續創6年多新低

財聯社
2026-05-06 09:29:03
2026-05-06 18:12:49
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12930文章數 142643關注度
往期回顧 全部

科技要聞

“馬斯克不懂AI”:OpenAI當庭戳老底

頭條要聞

中國發布阻斷禁令后魯比奧聲稱將二次制裁 外交部回應

頭條要聞

中國發布阻斷禁令后魯比奧聲稱將二次制裁 外交部回應

體育要聞

活塞1比0騎士:坎寧安不再是一個人了

娛樂要聞

神仙友誼!楊紫連續10年為張一山慶生

財經要聞

最新GDP!全國30強城市,又變了

汽車要聞

領克10/領克10+ 無論能源形式 領克都要快樂

態度原創

本地
手機
數碼
公開課
軍事航空

本地新聞

用青花瓷的方式,打開西溪濕地

手機要聞

13999元值不值得沖?華為Pura X Max典藏版深度評測:黃金大屏、旗艦影像全面進階 闊折疊才是更好用的折疊屏

數碼要聞

核顯本竟敢賣到萬元級別!榮耀MagicBook Pro16 2026全面評測:88W滿血 + 92Wh續航,這可能是史上最強的核顯

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

實施不到48小時 特朗普緊急喊停"霍爾木茲自由計劃"

無障礙瀏覽 進入關懷版