網易首頁 > 網易號 > 正文 申請入駐

VFMTok: Visual Foundation Models驅動的Tokenizer時代來臨

0
分享至



視覺 Tokenizer 的困境與破局

近年來,自回歸(Autoregressive, AR)模型在語言生成領域的成功激發了其在圖像生成領域的應用,涌現出 DALL-E、Parti、VAR 和 LlamaGen 等代表性工作。這類技術高度依賴于 VQGAN 等視覺 Tokenizer,它負責將高維、冗余的像素空間映射到一個低維、緊湊的離散潛在空間,是決定生成模型上限的基石。

然而,以 VQGAN 為代表的傳統 Tokenizer 通常需要從零開始訓練,其訓練目標由像素級重建損失函數主導,導致其產生的潛在空間:

  1. 富含低層細節特征卻缺乏高層語義信息:能很好地還原圖像細節,但潛在編碼本身缺乏高層語義信息。
  2. 較高的潛在空間冗余:VAGAN 基于圖像塊 (patch) 逐一進行量化,而圖像中的物體通常是不規則的區域,基于圖像塊的量化降低了 tokens 的編碼效率。
  3. 無視結構特性的表征:潛在空間的組織較為混亂,使得生成模型不僅需要更長的訓練時間來學習其潛在空間分布,而且往往得借助 CFG(Classifier-Free Guidance, CFG)等技巧來實現高保真度的圖像生成,增加了模型推理時間。

與此同時,預訓練的視覺基礎模型(Visual Foundation Models, VFMs),如 CLIP、DINOv2、SigLIP2 等,在提取豐富語義且可泛化視覺特征方面表現出了強大的能力。這些模型通過自監督或語言監督的方式進行訓練,它們能夠有效抽象出圖像中的高層語義信息,因此這些預訓練的視覺基礎模型大多應用于圖像內容理解任務當中。直接將其應用于圖像重建和生成任務上卻鮮有人探索。

基于此,香港大學 CVMI Lab 和階躍星辰 AIGC 團隊提出一個大膽假設:原本為視覺理解任務設計的預訓練視覺基礎模型,其潛在特征是否也能直接作為圖像重建與生成的魯棒結構化表征?

為了驗證這一猜想,我們探索了一個基礎視覺模型新的應用新方向:用凍結的預訓練視覺基礎模型構造離散的視覺 Tokenizer,將其應用于圖像重建和自回歸圖像生成任務上。

我們發現,相比于傳統的視覺 Tokenizer 模型,視覺基礎模型驅動的圖像 Tokenizer 在這兩項任務上均表現出優異的性能。



  • 論文標題: Vision Foundation Models as Effective Visual Tokenizers for Autoregressive Generation
  • 論文地址: https://arxiv.org/pdf/2507.08441
  • Huggingface: https://huggingface.co/papers/2507.08441
  • Github:
  • https://github.com/CVMI-Lab/VFMTok.git (Vanilla version)
  • https://github.com/CVMI-Lab/VFMTok-RAR.git (Ultra version)

探索性發現

為了驗證視覺基礎模型 (VFMs) 能否構造高質量的視覺 Tokenizer,我們首次嘗試使用不同的凍結的預訓練基礎視覺模型 (VFMs) 提取圖像特征,將其送入 VQGAN 的編碼器中進行端到端訓練。訓練階段只有量化器(quantilizer)和解碼器中的參數會進行更新,隨后用它完成自回歸圖像生成任務。

實驗表明:凍結的視覺基礎模型 (VFMs) 提取的圖像特征可以直接用于圖像重建,且訓練好的視覺 Tokenizer 在自回歸圖像生成任務上的表現優于傳統的視覺 Tokenizer 模型。

這一發現凸顯了預訓練視覺基礎模型 (VFMs) 構造高質量視覺 Tokenizer 的巨大潛力。



核心思想

基于我們的探索性發現:凍結的視覺基礎模型 (VFMs) 可以直接構造高質量的視覺 Tokenizer 并進行端到端地訓練,我們對構造的視覺 Tokenizer 的結構進行進一步的優化 —— 利用視覺基礎模型 (VFMs)提取圖像的多層特征 (Multi-level Features Extraction),這有助于同時捕獲圖像中的低層細節特征和高層語義信息。

同時,我們注意到現有的量化機制 (quantization) 都是對圖像塊 (patch) 逐一量化,而圖像中物體一般都是形狀不規則的,因此我們設計了區域自適應的量化 (Region-Adaptive Quantization) 方案。該方案可以進一步降低潛在特征空間的冗余度,提高視覺 tokens 的利用效率。

此外,因為視覺基礎模型的參數是凍結的,因此在重建圖像內容的同時,我們也設計了語義特征重建的目標函數 (Semantic Reconstruction Objective),來提升視覺 Tokenizer 的語義保真度。我們將基于視覺基礎模型 (VFMs) 的 Tokenizer 稱之為VFMTok。



VFMTok 架構圖

關鍵技術細節

  • 多層圖像特征提取 (Multi-level Features Extraction)

為了同時捕獲圖像低層細節特征和高層語義信息方便圖像重建,VFMTok 采用凍結的預訓練的視覺基礎模型 (VFMs) 作為編碼器提取多層級語義特征。VFMTok 按照等間隔的方式從預訓練基礎模型 (VFMs) 中提取多層特征 (multi-level features)。

  • 區域自適應量化 (Region-Adaptive Quantization)

為了實現區域自適應量化 (Region-Adaptive Quantization) 機制,VFMTok 通過可學習「錨點查詢」(Anchor Queries)結合可變形注意力機制(Deformable Attention)自適應地從多層級特征 (multi-level features) 中進行區域自適應的特征采樣 (Region-Adaptive Sampling)。

這種方式能聚焦于采樣圖像中模式一致的區域。隨后,VFMToks 對可學習「錨點查詢」(Anchor Queries)進行量化 (quantization)。這種方式可以有效提升 token 的利用效率 —— 用更少的 tokens(256)來表征一張圖像。



  • 語義重建目標(Semantic Reconstruction Objective)

因為視覺基礎模型在 Tokenizer 的訓練階段參數是凍結的,因此 VFMTok 在重建圖像的同時,也會重建凍結的基礎模型(VFM)最后一層的語義特征。

為了實現這一點,VFMTok 解碼階段設計了一個共享的輕量級 Vision Transformer(ViT)。這個 ViT 接收區域自適應量化后的 tokens,結合一個可學習的 mask token 以及一組可學習的位置編碼(Positional Embedding)作為輸入,分別產生用于圖像重建和語義重建的特征。共享 ViT 的設計既減少了參數量又保證了語義保真度。其雙重目標函數是:





訓練完成后,VFMTok 可以被應用于圖像自適應回歸任務上,基于 next-token prediction 的方式生成高質量的圖像內容。

實驗亮點與分析

1.卓越的重建生成質量與效率

大量實驗表明,基于視覺基礎模型 (VFMs) 構造的視覺 Tokenizer——VFMTok,具備高質量、高效率的圖像重建和自回歸圖像生成能力。

  • 更好的圖像重建質量:相較于傳統的視覺 Tokenizer,VFMTok 可以用更少的 token 數量(僅用 256 個)實現更優的重建質量(0.89 rFID, 215.4 rIS)和更高的碼本利用率 (100%),超越了之前大部分傳統的離散 Tokenizers。



  • 更快的生成訓練收斂速度:相比于經典的 VQGAN 這類 Tokenizer,VFMTok 能夠顯著提升自回歸模型訓練階段的收斂速度 ——訓練收斂速度提升了 3 倍。



  • 更好的生成性能:在 ImageNet 256x256 的 class-to-image 生成任務上,VFMTok-1.4B 模型在參數量更少、訓練迭代次數更少的情況下,自回歸生成性能超越了同類 LlamaGen-3B。此外,在接入更好的自回歸圖像生成框架 RAR 后,實現了SOTA 的圖像生成性能(gFID: 1.36)。



  • CFG-free 優越性:值得注意的是,VFMTok 在有無 CFG 的情況下性能幾乎一致(gFID: 2.07 vs 2.04),而 LlamaGen 則會從 2.19 急劇惡化至 9.38。這證明了其潛在空間具有極強的語義一致性,無需 CFG 即可實現高保真度的 class-to-image 圖像生成,可以進一步減少圖像生成時間。
  • 更快的推理速度:由于 tokens 數量減半(256 vs. 576),自回歸模型的生成過程長度減半,推理速度因此獲得了約 4 倍的提升。

2.消融實驗的有力證明

僅使用凍結的 VFM 作為編碼器,線性探針準確率(linear probing)就從 VQGAN 的 23.1% 提升至56.4%。引入區域自適應量化 (Region-Adaptive Quantization) 和語義特征重建 (Semantic Reconstruction Objective) 后,VFMTok 僅用 256 個 Token 就能在重建質量(rFID 0.89 vs 0.95) 上全面超越使用 576 個 Token 的 VQGAN 基線 Tokenizer。



總結與展望

VFMTok 首次證明了凍結的視覺基礎模型 (VFMs) 提取的圖像特征能有效用于圖像重建與生成,同時可以提升 Tokenizer 語義表征能力,使自回歸 (AR) 圖像生成模型收斂更快,并能實現 CFG-free 的高保真圖像合成。VFMTok 提出的區域自適應量化機制,通過有效利用圖像區域的固有冗余實現緊湊編碼,在減少視覺 token 數量的同時提升性能,實現高效且高質量的自回歸圖像生成。

大量實驗驗證了 VFMTok 在圖像重建和自回歸生成中的有效性,確立了預訓練視覺基礎模型 (VFMs) 構造高質量、高效率 Tokenizer 的主導地位。

由此可見,利用 VFM 的先驗知識是構建高質量潛在空間的必由之路,也是構建下一代 Tokenizer 的關鍵,這比任何從零開始的正則化或約束都更根本、更有效。預訓練視覺基礎模型的巨大潛力值得我們在未來深入挖掘,最終可能探索出一個能夠有效兼容所有生成模型的、語義豐富、高質高效的「統一 Tokenizer」。

VFMTok 論文與代碼均已公開,歡迎感興趣的同學閱讀、復現以及深入討論。

作者介紹

本文作者主要來自于香港大學 CVMI Lab 和階躍星辰 AIGC 團隊。階躍星辰 AIGC 團隊主要致力于圖像生成底模、圖像編輯底模、世界模型以及 RL 后訓練研究和落地。歡迎志同道合的同學交流和加入,一起為 AIGC 社區貢獻力量。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
震驚!大學教師分享女兒留學與歐洲旅行見聞被舉報!網友:活該吧

震驚!大學教師分享女兒留學與歐洲旅行見聞被舉報!網友:活該吧

火山詩話
2026-04-24 09:20:07
這跟不穿有啥區別?好萊塢女星走紐約紅毯,穿衣個個大膽,太前衛

這跟不穿有啥區別?好萊塢女星走紐約紅毯,穿衣個個大膽,太前衛

法老不說教
2026-04-23 19:09:50
耗資14億,海外觀眾好評度98%,中國觀眾不買賬,首日票房僅950萬

耗資14億,海外觀眾好評度98%,中國觀眾不買賬,首日票房僅950萬

靠譜電影君
2026-04-24 21:51:40
美媒:印度將成為全球大國的雄心已經消失了,剩下的只有華麗表演

美媒:印度將成為全球大國的雄心已經消失了,剩下的只有華麗表演

真正能保護你的
2026-04-24 17:44:55
26歲女子因常年腳冷,習慣穿著襪子睡覺,腳趾甲變“千層糕”,最終不得不接受拔甲治療

26歲女子因常年腳冷,習慣穿著襪子睡覺,腳趾甲變“千層糕”,最終不得不接受拔甲治療

觀威海
2026-04-24 09:12:16
有沒有人敢爆自己的瓜?網友:確定玩這么大嗎?

有沒有人敢爆自己的瓜?網友:確定玩這么大嗎?

夜深愛雜談
2026-02-18 20:55:58
月薪1.6萬招放羊工老板:電話快被打爆了,更適合四五十歲的夫妻搭檔,一個人來的都拒絕了

月薪1.6萬招放羊工老板:電話快被打爆了,更適合四五十歲的夫妻搭檔,一個人來的都拒絕了

環球網資訊
2026-04-24 14:55:55
男生考上北大被父親暴打,走投無路報警,才知父親真實身份

男生考上北大被父親暴打,走投無路報警,才知父親真實身份

紙鳶奇譚
2024-10-02 19:26:12
“大齡剩女”正在集體消失!不是嫁人了,是被現實一巴掌扇到隱形

“大齡剩女”正在集體消失!不是嫁人了,是被現實一巴掌扇到隱形

老范談史
2026-04-25 02:11:07
提前大結局!沙特聯爭冠徹底沒懸念,C羅即將圓夢聯賽首冠!

提前大結局!沙特聯爭冠徹底沒懸念,C羅即將圓夢聯賽首冠!

畫夕
2026-04-25 10:54:35
美伊將進行第二輪談判,美防長:談判底線是“伊朗不可能獲得核彈”,對伊朗封鎖已擴展至全球范圍,34艘船只在霍爾木茲海峽被勒令折返

美伊將進行第二輪談判,美防長:談判底線是“伊朗不可能獲得核彈”,對伊朗封鎖已擴展至全球范圍,34艘船只在霍爾木茲海峽被勒令折返

魯中晨報
2026-04-24 21:04:06
張敬軒4月試水內地翻車實錄:成都文旅辟謠、陳百祥沉默卻最響

張敬軒4月試水內地翻車實錄:成都文旅辟謠、陳百祥沉默卻最響

情感大頭說說
2026-04-25 00:26:59
虎狼之詞啊!一公共女廁提示走紅網絡,“屙尿時對準坑位”引熱議

虎狼之詞啊!一公共女廁提示走紅網絡,“屙尿時對準坑位”引熱議

火山詩話
2026-04-25 06:12:02
內蒙古一老板開1.6萬月薪招人放3000只羊,包吃住,有Wi-Fi,有專人送物資,全年無休,回應:更適合夫妻檔,一望無際的大草原常年見不到人

內蒙古一老板開1.6萬月薪招人放3000只羊,包吃住,有Wi-Fi,有專人送物資,全年無休,回應:更適合夫妻檔,一望無際的大草原常年見不到人

瀟湘晨報
2026-04-23 22:14:14
河南一企業將絲瓜絡做成燈具遠銷海外,單盞售價300到600美金

河南一企業將絲瓜絡做成燈具遠銷海外,單盞售價300到600美金

大象新聞
2026-04-24 21:49:03
唐伯虎真跡現身美國,世上僅此一件,網友:讓當代書家汗顏

唐伯虎真跡現身美國,世上僅此一件,網友:讓當代書家汗顏

幸福娃3790
2025-12-04 11:10:09
發現一個奇怪的現象:凡是情緒穩定、睡眠好、不焦慮的人,都有一個共性,那就是再大的事也不擱在心里,再惡劣的環境也能想辦法適應

發現一個奇怪的現象:凡是情緒穩定、睡眠好、不焦慮的人,都有一個共性,那就是再大的事也不擱在心里,再惡劣的環境也能想辦法適應

LULU生活家
2026-04-24 19:12:24
扎哈羅娃抨擊西方對烏克蘭襲擊俄羅斯導致的環境破壞“視而不見”

扎哈羅娃抨擊西方對烏克蘭襲擊俄羅斯導致的環境破壞“視而不見”

山河路口
2026-04-24 19:06:09
太慘了!燃油車再迎大降價:最大跌幅50%,豪華車帶頭“跳水”

太慘了!燃油車再迎大降價:最大跌幅50%,豪華車帶頭“跳水”

混沌錄
2026-04-23 16:50:14
中際旭創市值突破1萬億,山東誕生新首富

中際旭創市值突破1萬億,山東誕生新首富

中國能源網
2026-04-24 17:42:04
2026-04-25 11:51:00
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12852文章數 142635關注度
往期回顧 全部

科技要聞

Anthropic剛拿亞馬遜250億美元,又拿谷歌400億

頭條要聞

房屋燒毀3年居民安置落空:原地塊已被規劃為商業用地

頭條要聞

房屋燒毀3年居民安置落空:原地塊已被規劃為商業用地

體育要聞

火箭0-3觸發百分百出局定律:本季加時賽9戰8敗

娛樂要聞

鄧超最大的幸運,就是遇見孫儷

財經要聞

別高估英偉達,別低估DeepSeek

汽車要聞

2026款樂道L90亮相北京車展 樂道L80正式官宣

態度原創

數碼
健康
教育
房產
旅游

數碼要聞

華為WATCH Buds 2開售 手表耳機二合一 3488元起

干細胞如何讓燒燙傷皮膚"再生"?

教育要聞

農村學生迎來“好消息”!教育部新規:取消戶籍限制,9月起執行

房產要聞

新一輪教育大爆發來了!海口,開始瘋狂建學校!

旅游要聞

滬六合作:一片茶葉 撐起上海人的“后花園”

無障礙瀏覽 進入關懷版