![]()
HY-WU :一種在推理階段動態(tài)生成模型參數(shù),而非依賴固定參數(shù)處理任務(wù)的方法。
作者丨鄭佳美
編輯丨岑 峰
很多機器學(xué)習(xí)系統(tǒng)在設(shè)計時都默認(rèn)一個前提:模型一旦訓(xùn)練完成,其參數(shù)基本是固定的。
無論輸入是什么樣的數(shù)據(jù),模型都會依賴同一套參數(shù)完成推理。這種范式在過去十多年里非常成功,模型能力的提升主要依賴更大的模型規(guī)模、更多的數(shù)據(jù)以及更長時間的訓(xùn)練。但當(dāng)人工智能逐漸進(jìn)入更加復(fù)雜的應(yīng)用環(huán)境時,這種“固定參數(shù)”的方式也開始顯現(xiàn)出局限。
現(xiàn)實任務(wù)往往具有高度多樣性,不同用戶需求、不同任務(wù)目標(biāo)甚至可能彼此沖突。例如在圖像編輯場景中,同一張圖片可能會對應(yīng)完全不同的修改要求。有的任務(wù)需要增強細(xì)節(jié),例如去模糊或圖像修復(fù),而另一些任務(wù)則需要弱化細(xì)節(jié),例如增加模糊效果或模擬老照片的老化過程。如果模型始終依賴同一套參數(shù),它往往只能在不同目標(biāo)之間做出折中,從而影響最終效果。
過去,研究人員通常通過 domain adaptation 或模型微調(diào)來緩解這一問題。當(dāng)模型進(jìn)入新的領(lǐng)域時,需要重新訓(xùn)練或調(diào)整參數(shù),使其適應(yīng)新的數(shù)據(jù)分布。然而這種方式往往意味著額外訓(xùn)練成本,同時也增加了系統(tǒng)部署和維護(hù)的復(fù)雜度。那么有沒有機會做到實時adaptation?
在這樣的背景下,騰訊混元團隊提出了論文《HY-WU (Part I): An Extensible Functional Neural Memory Framework and An Instantiation in Text-Guided Image Editing》。
這項研究嘗試改變模型適應(yīng)任務(wù)的方式:讓模型在推理階段根據(jù)當(dāng)前輸入實時動態(tài)生成適合該任務(wù)的參數(shù),而不是始終依賴一套固定參數(shù)。通過這種機制,同一個基礎(chǔ)模型在面對不同任務(wù)時可以表現(xiàn)出不同的行為模式,從而實現(xiàn)更加靈活的實時適配能力。
![]()
論文地址:https://arxiv.org/pdf/2603.07236
01
一個模型,多種行為
研究通過多種實驗驗證了一個核心觀點:如果模型能夠針對每個輸入動態(tài)生成參數(shù),而不是始終使用一套固定參數(shù),那么在復(fù)雜任務(wù)中會表現(xiàn)得更好。為驗證這一點,研究人員設(shè)計并開展了四類實驗。
首先是人類評測實驗。研究團隊進(jìn)行了大規(guī)模人工評測。評測流程是:在同一輸入圖片和編輯指令的條件下,讓不同模型分別生成編輯結(jié)果,然后由人類評審在兩個結(jié)果之間選擇更好的一個,并統(tǒng)計最終的勝率。
結(jié)果顯示,HY-WU 在多個主流模型對比中具有明顯優(yōu)勢。例如,對 Step1X-Edit 的勝率約為 78.4%,對 Qwen-Image-Edit 的勝率約為 70.5%,對 LongCat-Image-Edit 的勝率約為 68.3%,對 FLUX.2 的勝率約為 55.5%。在與部分閉源商業(yè)系統(tǒng)比較時,對 Seedream 4.5 的勝率約為 55.6%,對 GPT Image 1.5 的勝率約為 55.5%。與最先進(jìn)的商業(yè)系統(tǒng) Nano Banana 系列相比,HY-WU 的表現(xiàn)略微落后,但整體差距不大。這些結(jié)果表明,通過動態(tài)生成參數(shù)的方式,在視覺編輯效果上具有明顯優(yōu)勢。
![]()
其次是自動評測實驗。除了人工評測,研究人員還設(shè)計了自動評估系統(tǒng) WU-Eval。該系統(tǒng)從四個維度對圖像結(jié)果進(jìn)行評價,包括指令對齊、內(nèi)容一致性、結(jié)構(gòu)合理性以及圖像質(zhì)量。
實驗結(jié)果顯示,HY-WU 在這些指標(biāo)上取得了最高的總體得分 4.27,其中 consistency 為 4.13,structure 為 4.30,quality 為 3.98。與最強的開源模型相比,consistency 提高約 0.27,structure 提高約 0.23。這些結(jié)果說明,通過動態(tài)生成參數(shù)的機制,可以顯著提升圖像編輯過程中的穩(wěn)定性以及結(jié)構(gòu)保持能力。
![]()
第三類實驗是在公開 benchmark 上的評測。研究團隊在兩個公開圖像編輯評測數(shù)據(jù)集上進(jìn)行了測試。在 GEdit-Bench 上,HY-WU 在所有開源模型中排名第一;在 ImgEdit-Bench 上,HY-WU 的總體得分為 4.05,在開源模型中排名第二。這說明該方法不僅在內(nèi)部實驗中有效,在公開評測環(huán)境中同樣具有較強競爭力。
![]()
第四類實驗是沖突任務(wù)實驗。研究人員設(shè)計了一組互相矛盾的編輯任務(wù),用來測試模型在復(fù)雜條件下的表現(xiàn)。例如圖像去模糊與圖像模糊、圖像恢復(fù)與圖像老化等任務(wù),這些任務(wù)在本質(zhì)上具有相反的目標(biāo)。
實驗比較了三種不同策略。第一種是 Single LoRA,即為每個任務(wù)分別訓(xùn)練獨立模型。實驗結(jié)果顯示,這種方法在對應(yīng)任務(wù)上表現(xiàn)很好,但無法處理其他任務(wù),說明模型出現(xiàn)過度專門化的問題。第二種是 Shared LoRA,即多個任務(wù)共享一個模型。實驗結(jié)果顯示,這種方式雖然可以處理所有任務(wù),但效果明顯被折中,例如在去模糊和模糊之間出現(xiàn)一種“半模糊”的結(jié)果。第三種是 HY-WU 方法,即針對每個輸入動態(tài)生成不同參數(shù)。實驗結(jié)果表明,在這種機制下,每個任務(wù)都能夠被正確執(zhí)行,而且不同任務(wù)之間不會互相干擾,這說明動態(tài)參數(shù)生成可以有效避免任務(wù)沖突問題。
![]()
02
一個模型,多套參數(shù)
在實驗過程中,研究團隊提出的 HY-WU 系統(tǒng)本質(zhì)上是一種動態(tài)參數(shù)生成框架,其核心思想是讓模型在推理階段根據(jù)當(dāng)前輸入動態(tài)生成適合該任務(wù)的參數(shù),而不再始終依賴一套固定參數(shù)來處理所有問題。傳統(tǒng)模型在部署后通常使用同一組參數(shù)處理所有輸入,而 HY-WU 的設(shè)計思路則不同,它通過一個額外的參數(shù)生成模塊,使模型在面對不同輸入時能夠產(chǎn)生不同的參數(shù)配置,從而形成針對當(dāng)前任務(wù)更加合適的計算方式。
在任務(wù)設(shè)置方面,研究人員將實驗任務(wù)設(shè)定為文本指導(dǎo)圖像編輯。在這一任務(wù)中,系統(tǒng)的輸入包括兩部分信息,一部分是一張原始圖片,另一部分是一條描述編輯需求的文本指令。模型需要根據(jù)這兩部分信息生成一張新的編輯結(jié)果圖像。
為了保證編輯結(jié)果具有良好的可用性,任務(wù)目標(biāo)包括三個方面。首先,模型必須正確執(zhí)行文本指令中所描述的編輯操作,例如改變某個物體的屬性或替換某個區(qū)域。其次,在執(zhí)行編輯時需要保留與指令無關(guān)的重要內(nèi)容,也就是說只修改需要改變的部分,而盡量保持其他區(qū)域不發(fā)生變化。
第三,生成圖像需要保持整體結(jié)構(gòu)的一致性,例如人物的姿態(tài)、空間關(guān)系或背景結(jié)構(gòu)不能出現(xiàn)明顯破壞。例如在一個典型場景中,輸入是一張人物圖片,同時給出一條指令要求將人物的衣服替換為另一張圖中的衣服。在這種情況下,系統(tǒng)需要在改變衣服外觀的同時保持人物身份特征、姿態(tài)以及背景環(huán)境不發(fā)生變化,使最終生成的圖像看起來真實且自然。
![]()
在系統(tǒng)結(jié)構(gòu)方面,HY-WU 系統(tǒng)可以分為三個主要階段。第一階段是條件信息提取階段。在這一階段中,系統(tǒng)分別從輸入圖像和文本指令中提取特征信息,并將兩種模態(tài)的信息融合形成一個統(tǒng)一的條件表示。
這一條件表示描述了當(dāng)前輸入中包含的視覺內(nèi)容以及用戶所提出的編輯需求,是后續(xù)參數(shù)生成過程的重要依據(jù)。通過這種方式,系統(tǒng)能夠理解當(dāng)前圖像中包含的對象、結(jié)構(gòu)以及文本指令所要求的變化方向。
第二階段是模型參數(shù)生成階段。在這一階段中,提取到的條件信息會被輸入到一個基于 Transformer 架構(gòu)的參數(shù)生成網(wǎng)絡(luò)中。該網(wǎng)絡(luò)的任務(wù)不是直接生成圖像,而是根據(jù)輸入條件生成一組新的模型參數(shù),這些參數(shù)以 LoRA adapter 的形式存在。
LoRA adapter 是一種常見的參數(shù)高效更新方式,可以在不修改原始模型主體結(jié)構(gòu)的情況下改變模型行為。通過這一機制,參數(shù)生成網(wǎng)絡(luò)能夠根據(jù)當(dāng)前輸入條件生成適合該任務(wù)的參數(shù)更新,從而使基礎(chǔ)模型在執(zhí)行推理時具備針對當(dāng)前任務(wù)的能力。
第三階段是執(zhí)行圖像編輯階段。在這一階段中,系統(tǒng)會將生成的 LoRA adapter 參數(shù)插入到基礎(chǔ)模型中,使模型在當(dāng)前輸入條件下以新的參數(shù)結(jié)構(gòu)運行。隨后基礎(chǔ)模型在這些參數(shù)的作用下完成圖像生成或編輯過程,并輸出最終結(jié)果。由于參數(shù)生成網(wǎng)絡(luò)會針對每一個輸入生成不同的參數(shù),因此即使使用同一個基礎(chǔ)模型,不同輸入也會對應(yīng)不同的參數(shù)配置。這意味著模型在處理不同任務(wù)時能夠表現(xiàn)出不同的行為模式,從而提升整體適應(yīng)能力。
![]()
在訓(xùn)練方式方面,HY-WU 采用了一種與傳統(tǒng)方法明顯不同的訓(xùn)練策略。傳統(tǒng)方法在進(jìn)行參數(shù)生成或適配研究時,通常需要先預(yù)先訓(xùn)練大量模型,然后再通過學(xué)習(xí)過程重建這些模型參數(shù),從而訓(xùn)練一個能夠生成參數(shù)的網(wǎng)絡(luò)。這種方式不僅需要存儲大量模型,還會帶來較高的訓(xùn)練和數(shù)據(jù)管理成本。
與之相比,研究團隊在 HY-WU 中采用了更加直接的訓(xùn)練方式。在訓(xùn)練過程中,系統(tǒng)首先輸入圖像和編輯指令,然后由參數(shù)生成網(wǎng)絡(luò)根據(jù)輸入條件生成對應(yīng)的模型參數(shù)。接著系統(tǒng)利用這些參數(shù)在基礎(chǔ)模型中生成編輯后的圖像。隨后根據(jù)生成結(jié)果與目標(biāo)之間的差異計算損失,并根據(jù)損失結(jié)果更新參數(shù)生成網(wǎng)絡(luò)。
整個訓(xùn)練流程可以概括為五個步驟,即輸入圖像和指令、生成模型參數(shù)、生成編輯圖像、根據(jù)編輯效果計算損失以及更新參數(shù)生成網(wǎng)絡(luò)。通過這種方式,系統(tǒng)能夠直接圍繞最終任務(wù)目標(biāo)進(jìn)行優(yōu)化,同時避免存儲和管理大量模型參數(shù),從而降低訓(xùn)練過程中的復(fù)雜度,并使參數(shù)生成機制更加靈活。
![]()
03
一個模型,應(yīng)對無限變化的任務(wù)
從技術(shù)層面來看,這項研究可以被理解為一種新的圖像編輯方法,但如果從更宏觀的角度進(jìn)行分析,它實際上提出了一種新的模型適應(yīng)方式。
傳統(tǒng)模型通常依賴一套固定參數(shù)來處理所有任務(wù),而現(xiàn)實世界的問題往往是多樣且不斷變化的。例如,不同用戶需求可能完全不同,不同任務(wù)目標(biāo)之間也可能存在明顯差異,同時數(shù)據(jù)分布在不同場景中也會發(fā)生變化。在這種情況下,一套固定參數(shù)很難同時適應(yīng)所有情況,因此模型在復(fù)雜環(huán)境中的表現(xiàn)往往受到限制。
在過去十幾年中,機器學(xué)習(xí)領(lǐng)域通常通過 domain adaptation 來解決這一問題。當(dāng)模型進(jìn)入新的領(lǐng)域時,研究人員往往需要重新訓(xùn)練模型,或者通過微調(diào)的方式使模型適應(yīng)新的數(shù)據(jù)分布。
這種方法確實可以在一定程度上提升模型在新領(lǐng)域中的表現(xiàn),但其成本也相對較高。每進(jìn)入一個新的領(lǐng)域通常都需要重新進(jìn)行訓(xùn)練,系統(tǒng)部署過程會變得更加復(fù)雜,同時模型更新的周期也會變得較長。
隨著模型規(guī)模的不斷發(fā)展,研究人員開始探索另一種新的思路,即是否可以讓模型在運行過程中自動適應(yīng)任務(wù),而不需要重新訓(xùn)練模型。在這一背景下,HY-WU 可以被看作這種思路的一種具體實現(xiàn)方式。與傳統(tǒng)方法不同,這一方法學(xué)習(xí)的并不是一組固定的模型參數(shù),而是學(xué)習(xí)如何根據(jù)當(dāng)前輸入生成合適的參數(shù)更新,從而讓同一個基礎(chǔ)模型在面對不同任務(wù)時能夠表現(xiàn)出不同的行為模式。
![]()
從更抽象的角度來看,一個真正強大的模型需要具備兩個關(guān)鍵能力。首先,模型必須具備 adaptation 能力,也就是說模型能夠根據(jù)不同任務(wù)改變自己的行為方式,而不是始終使用同一種處理策略。
其次,這種 adaptation 必須是實時發(fā)生的。如果每一次適應(yīng)都需要重新訓(xùn)練模型,那么系統(tǒng)在真實環(huán)境中的使用就會受到很大限制。因此,一個真正智能的系統(tǒng)不僅需要具備適應(yīng)能力,還需要能夠?qū)崿F(xiàn)實時適應(yīng)。
在這樣的框架下,在這樣的框架下,HY-WU 的核心意義不僅在于提升圖像編輯任務(wù)中的性能,更重要的是,它實現(xiàn)了一種推理階段的實時適應(yīng)機制(real-time adaptation)。具體來說,模型在處理每一次輸入時,都會根據(jù)當(dāng)前圖像和指令動態(tài)生成一組新的參數(shù),使模型能夠針對當(dāng)前任務(wù)調(diào)整自身行為。
![]()
在這一機制下,模型在面對每一個輸入時都會生成一組新的參數(shù)調(diào)整,從而使同一個基礎(chǔ)模型能夠在不同任務(wù)之間靈活切換,并表現(xiàn)出不同的行為模式。
從更長遠(yuǎn)的角度來看,這項研究也為未來人工智能系統(tǒng)的發(fā)展提供了一種新的方向。未來的 AI 系統(tǒng)可能不再依賴單一的固定模型,而是需要在運行過程中實時調(diào)整自身的參數(shù)結(jié)構(gòu),從而持續(xù)適應(yīng)不斷變化的任務(wù)環(huán)境和應(yīng)用場景。
未經(jīng)「AI科技評論」授權(quán),嚴(yán)禁以任何方式在網(wǎng)頁、論壇、社區(qū)進(jìn)行轉(zhuǎn)載!
公眾號轉(zhuǎn)載請先在「AI科技評論」后臺留言取得授權(quán),轉(zhuǎn)載時需標(biāo)注來源并插入本公眾號名片。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.