網易首頁 > 網易號 > 正文 申請入駐

Agent-World:擴展真實世界環境,讓智能體與環境協同進化!

0
分享至



隨著MCP、Agent Skills與各類Harness的快速發展,大模型能輕松調用成百上千種外部工具,但在多工具,具備復雜狀態、長程交互的任務上仍有明顯短板。盡管一系列環境擴展方法嘗試復刻真實世界的交互環境(如訂票系統,外賣平臺),但仍受限于環境擴展的規模與真實性。除此以外,訓練環境造得再多,當智能體在面臨新的交互環境時,若缺少持續學習的訓練算法依舊很難具備泛化性。

為此,本文提出Agent-World:一個通用智能體訓練場,將“智能體環境探索”與“自進化訓練”相結合,形成智能體與環境協同進化的閉環。

Agent-World由兩個核心模塊構成:

(1)智能環境-任務探索:通過深度研究智能體,圍繞真實世界環境主題,自主從互聯網挖掘環境數據庫、生成可執行工具和可校驗任務。

(2)持續自進化訓練:通過多環境強化學習訓練智能體,并將合成環境視作天然的訓練場,自動診斷智能體的能力短板,針對性地推動環境/任務擴展,實現智能體的自進化。



圖1:Agent-World總覽:左圖展示Agent-World智能體與環境的協同進化閉環,右圖展示下游性能與環境擴展曲線

最終,Agent-World構建了1978個環境、19,822個工具,任務平均交互輪次超過15輪。實驗表明,在23個挑戰性的基準上(包括τ2-Bench、BFCL V4、MCP-Mark、ClawEval、SkillsBench等),Agent-World-8B/14B一致性優于先進的環境擴展方法與強開源基礎模型。進一步的實驗分析表明,環境多樣性、自進化輪次與智能體性能之間存在可擴展關系。





  • 論文標題:
  • Agent-World: Scaling Real-World Environment Synthesis for Evolving General Agent Intelligence
  • 論文鏈接:
  • https://arxiv.org/pdf/2604.18292
  • 項目主頁:
  • https://agent-tars-world.github.io/-/

目前Agent-World在X上收獲很高關注度,同時榮登Huggingface Paper日榜第二名!





Agent-World:

擴展世界環境,讓智能體與環境協同進化!

1、智能環境-任務挖掘:從網絡中自動挖掘真實世界環境

傳統的環境合成方法要么依賴LLM直接生成,要么局限于有限的開源工具數據。Agent-World則選擇了個有趣的思路:從真實世界的環境主題出發,讓深度研究智能體自主去廣闊的互聯網上挖掘環境。



圖2:智能環境-任務挖掘流程:包含整體流程概覽(上)與各步驟細粒度展示(下)

(1)智能數據庫挖掘:Agent-World選定真實MCP服務器數據、開源工具文檔、行業需求文檔等作為主題錨點(2千余個);對每個主題使用搜索、瀏覽、代碼編譯器與文件系統四種工具的深度研究智能體(Deep Research Agent),從海量互聯網的網頁中自主挖掘主題相關的環境數據庫,并通過迭代式地數據復雜化來提升數據庫規模與結構真實性。



(2)工具接口生成與校驗:Agent-World進一步引入代碼智能體來為每個環境生成工具接口單元測試腳本,通過“可編譯性、測試準確率、環境最小有效性”三重規則過濾,最終得到一系列包含真實數據庫與可執行工具集的交互環境。



(3)層次化環境分類體系:為了支撐跨環境的任務合成與分層評測,該工作進一步對海量環境生態進行體系構建,通過主題聚類并結合大模型與人工校驗,Agent-World將環境生態劃分了20 / 50 /1978的三層級環境標簽分類體系(如下圖所示)



圖3:Agent-World的層次環境分類。左圖展示20個一級環境,右圖展示Top-10二級環境對應三級環境數量。


(4)可驗證任務合成:基于高質量的環境生態,Agent-World采用了兩種互補的可驗證任務合成策略:

?基于圖的任務合成:為環境中的工具構建一個完全連通的依賴圖,通過隨機游走生成合理的工具調用序列,隨后“由鏈反推”自然語言問題,并配套大模型評分Rubric。這種方法擅長建模順序依賴的邏輯。

?程序化任務合成:直接讓LLM生成一個需要復雜控制流的Python腳本來解決某個問題,并反向生成對應的問題,可執行驗證代碼。這種方法能捕捉非線性的復雜推理。

(5)合成環境的統計分析:下圖給出了環境與任務分布的詳盡統計。經多道過濾后,Agent-World最終沉淀1,978個環境、19,822個工具,單環境平均工具數超過10個,體量可觀且粒度均衡;環境數據庫橫跨JSON、CSV、SQL、HTML、TeX、YAML等多種文件格式,結構與語義上均呈現高度異質性。

合成任務則以“長程多輪”為主,平均交互輪次超過15輪,對規劃、記憶與錯誤恢復提出持續壓力。難度方面,即便是豆包-Seed 2.0在Pass@10設定下仍有相當比例任務無法正確完成,反映出整體任務的極具挑戰性。

綜上,靜態統計從規模、格式、交互長度、難度四個維度共同驗證了Agent-World合成交互環境在多樣性、異質性復雜性上的顯著優勢。



圖4:Agent-World合成環境與任務的六維統計分析。

2、持續自進化智能體訓練:讓智能體與環境協同進化

在構建可擴展,真實的環境生態系統后,Agent-World將其轉化為一個動態的智能體訓練場(如下圖)。



圖5:持續自進化智能體訓練框架。上方是多環境強化訓練,下方是診斷與協同進化循環。

(1)多環境強化學習:與傳統Agent RL不同,我們的訓練在「智能體–工具–數據庫」的閉環交互中展開。智能體在不同環境中進行Rollout,調用工具的同時也會改寫底層數據庫狀態,使學習信號真正根植于可執行世界環境。算法上,Agent-World采用廣泛使用的GRPO最大化上述可驗證獎勵,穩定提升Agent性能。



獎勵側亦按任務類型分化:基于圖合成的任務由大模型依校驗rubric評分細則逐項打分;程序式任務則直接執行驗證腳本,依最終答案或狀態的正確性給分。



(2)自進化智能體競技場:Agent-World的核心在于把整個環境生態視作天然的智能體訓練競技場。訓練并非一蹴而就,而是一個多輪迭代的自進化過程:

動態評測任務合成:每輪訓練結束后,從競技場的環境池中按環境分類體系均衡采樣一批新環境,并為其合成全新的評估任務,避免"刷過的題再考一遍"。

智能體化診斷:讓當前輪次的智能體在這批新任務上跑評估;診斷智能體隨后分析其失敗軌跡、錯誤分布與環境元信息,定位能力短板(例如"Notion環境下的二級標題創建出錯"),輸出弱點環境排序針對性任務生成指南。

智能體–環境協同進化:依據診斷結果,在弱點環境上合成更具挑戰性的訓練任務,并按需進一步復雜化對應環境數據庫;再以這批"薄弱能力定制化數據"驅動下一輪的持續強化學習。

以上流程形成了一個有趣的訓練飛輪:“訓練提升智能體→評估暴露弱點→診斷指引環境/任務擴展→新數據驅動智能體進一步進化”。這一閉環讓智能體與其訓練環境實現了真正的“協同進化”。



實驗結果:

23個基準驗證Agent-World的跨域智能體能力

實驗設置:為充分評估泛化,Agent-World評測5大類領域,共覆蓋23個評測基準:

?智能體工具使用:

MCP-Mark,BFCL V4,τ2-Bench

?前沿AI助手:

SkillsBench,ARC-AGI-2,ClawEval

?通用推理:

MATH500,GSM8K,MATH,AIME24/25,KOR-Bench,OlympiadBench等

?深度搜索與軟件工程:

WebWalkerQA,SWE-Bench,Terminal-Bench,GAIA,HLE等

?知識與MCP:

MMLU,SuperGPQA,MCP-Universe等

對比基線包括前沿閉源模型(GPT-5.2 High, Claude Sonnet-4.5,Seed2.0等)、強開源基礎模型(DeepSeek-V3.2-685B, Qwen3-235B-A22B)以及先進的環境擴展方法(EnvScaler,AWM,ScaleEnv)。

1.核心智能體任務上表現卓越



表1:在核心智能體工具使用基準上結果。

如上表所示,在當下最具挑戰性的三大智能體工具使用基準—MCP-Mark、BFCL V4、τ2-Bench上,Agent-World-8B與14B穩定超越所有開源環境擴展基線。這三套基準分別考察多輪有狀態交互、跨域工具調用與長程對話,連閉源前沿模型在MCP-Mark上也僅停留在50左右的分位。

更有意思的是,Agent-World-14B在BFCL V4上取得55.8%,反超685B參數的DeepSeek-V3.2-685B(54.1%),這也表明更真實的可執行環境與可驗證獎勵,比參數更能對齊復雜的智能體交互模式。

2.長程智能體推理能力顯著



圖6:Agent-World-8B在通用推理、智能體搜索與編碼、知識與MCP三大能力組上的泛化表現雷達圖,全面領先基線。

如上圖所示,當我們把評測擴展到17個覆蓋長程推理、深度搜索、軟件工程與知識應用的基準,Agent-World-8B依然在所有維度上保持領先:通用推理(MATH500,AIME,OlympiadBench等)未因為Agent相關訓練而退化,甚至微微漲幅;在深度搜索,軟件工程領域(GAIA,SWE-Bench,Terminal-Bench等)這類超長輪次任務上優勢極為明顯。

除此以外,在其他知識類與MCP基準表現同樣十分優秀,這證明了Agent-World其通過環境訓練獲得的技能是可遷移、可組合的,而非針對特定基準的過擬合。



圖7:Agent-World系列模型在SkillsBench、ARC-AGI-2、ClawEval等前沿AI助手基準上展現優異性能。

3.先進AI助手場景顯著提升

如上圖所示,Agent-World在SkillsBench、ARC-AGI-2和ClawEval這三個要求長程規劃和真實世界執行的最新基準上同樣表現出色,且從8B到14B規模提升穩定,而其他的基線模型則出現了能力波動。

定量分析:

環境規模與自進化如何驅動性能?

除了主實驗結果,Agent-World還進行了一系列有趣的定量分析。

1、訓練環境規模擴展分析



圖8:下游智能體性能隨著訓練環境數量的增加而顯著提升,呈現明確的縮放規律。

隨著逐步增加訓練環境的數量(從0到近2000個),智能體性能與環境數量呈明顯的正相關。初期(10到100個環境)性能提升迅猛,說明覆蓋關鍵交互模式至關重要;后期提升放緩但持續,表明更大規模的環境帶來了更細粒度的能力提升。

2、自進化輪次分析



表2:持續自主進化的效果。

研究驗證了自進化競技場閉環的有效性。無論是Agent-World模型自身還是基線模型EnvScaler-8B,經過兩輪“評估-診斷-針對性訓練”的循環后,一致性地在多個基準上的性能獲得一致性增益。這證明將環境作為訓練場,針對性驅動數據合成,是持續提升智能體環境泛化能力的有效機制。

3、多環境強化學習曲線分析



圖8:多環境智能體強化學習曲線展示。

Agent-World雖然在復雜,混合的環境與多樣化合成任務(基于工具圖與程序化)上進行強化學習,其獎勵分數隨步數穩步上升,而策略熵保持相對穩定甚至增長,表明智能體在適應新環境的同時,保持了良好的探索性,沒有過早地陷入局部最優的“固化”行為。

總結與展望

Agent-World希望通過擴展真實世界環境,實現智能體與環境的持續協同進化。作為本文作者,我們也想拋出一些在推動這項研究中發現的幾點啟示,供研究通用智能體訓練方向的朋友們參考與共同探索:

  • 真實性是環境擴展的底座:構建高真實、邏輯可校驗的環境,是訓練通用智能體的前提。Agent-World以智能體化流水線對接真實主題與海量網絡信息,自動挖掘數據與工具;我們相信這只是起點,未來會有更自動、更貼近真實世界復刻的環境合成范式涌現。

  • 進化是環境訓練的動力:規;h境生態一旦建成,單次靜態訓練既不夠、也浪費高成本構建的環境。Agent-World構建了可自動診斷弱點、定向生成挑戰的閉環系統,讓智能體與環境協同進化。如何把環境生態與訓練算法深度耦合,仍是一條漫長但值得持續押注的路。

  • 環境/任務可擴展性通往泛化性:我們在Agent-World中觀察到“環境規模、自演化輪次、任務難度”與智能體性能之間清晰的scaling關系。這提示未來應同步擴展“更多樣的環境、更復雜的任務、更多輪的進化”—這或許正是通往通用智能體交互能力的一把鑰匙。

作者簡介:本文第一作者是董冠霆,中國人民大學高瓴人工智能學院博士二年級,導師為竇志成教授和文繼榮教授。他的主要研究方向為通用智能體訓練。以第一/共同第一作者身份在ICLR、ACL等國際頂級會議發表論文10余篇;代表工作包括 ARPO, AUTOIF, Search-o1, Webthinker, FlashRAG等。谷歌學術引用量1萬余次,個人GitHub項目星標8000余枚,并在字節跳動Seed、阿里通義千問等基座大模型團隊實習。曾獲首屆騰訊青云獎學金,國家獎學金、北京市優秀畢業生等榮譽。本文的通信作者為中國人民大學的竇志成教授與字節跳動Seed的鐘宛君。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
張亮兒子17歲當爹了?

張亮兒子17歲當爹了?

八卦瘋叔
2026-05-06 11:04:32
上海嘉定最新公告:區部分街鎮行政區劃變更

上海嘉定最新公告:區部分街鎮行政區劃變更

上觀新聞
2026-05-06 10:34:05
湖北恩施州委書記胡超文,被查

湖北恩施州委書記胡超文,被查

大風新聞
2026-05-06 12:24:23
5月6日,人社部和財政部關于2026年養老金調整通知正式公布了嗎?

5月6日,人社部和財政部關于2026年養老金調整通知正式公布了嗎?

小彬說事
2026-05-06 09:49:09
26死!瀏陽花炮按下暫停鍵,國內超7成的煙花出口份額,或受重創

26死!瀏陽花炮按下暫停鍵,國內超7成的煙花出口份額,或受重創

火山詩話
2026-05-05 16:22:11
51歲女子包養24歲男孩,嫌男孩不行被殺,2014年男孩說她索取無度

51歲女子包養24歲男孩,嫌男孩不行被殺,2014年男孩說她索取無度

漢史趣聞
2026-05-05 11:40:36
關鍵時刻,伊朗外長親自訪華,背后釋放重磅信號,美擔心情況發生

關鍵時刻,伊朗外長親自訪華,背后釋放重磅信號,美擔心情況發生

軍武咖
2026-05-05 22:05:10
偉偉道來 | 伊朗的反應為何如此激烈

偉偉道來 | 伊朗的反應為何如此激烈

經濟觀察報
2026-05-06 11:40:46
特朗普專車先進北京,日本電話打爆白宮:就一個請求,先停東京

特朗普專車先進北京,日本電話打爆白宮:就一個請求,先停東京

網絡易不易
2026-05-06 11:33:33
虧損超1.5億!《寒戰1994》票房崩塌,我感慨:這塊金字招牌砸了

虧損超1.5億!《寒戰1994》票房崩塌,我感慨:這塊金字招牌砸了

靠譜電影君
2026-05-05 10:40:44
為什么發達國家對中國都不友好?

為什么發達國家對中國都不友好?

新浪財經
2026-05-04 07:26:54
關注中美高層互動,民進黨當局憂慮自身上“菜單”

關注中美高層互動,民進黨當局憂慮自身上“菜單”

京彩臺灣
2026-05-06 09:04:21
歐盟對俄釜底抽薪,斯洛伐克與亞美尼亞雙雙倒向烏克蘭

歐盟對俄釜底抽薪,斯洛伐克與亞美尼亞雙雙倒向烏克蘭

史政先鋒
2026-05-05 18:56:40
比TNT廉價,比石油致命:白糖憑什么成為人類文明最危險戰略物資

比TNT廉價,比石油致命:白糖憑什么成為人類文明最危險戰略物資

丁丁鯉史紀
2026-05-05 10:33:14
中國機器人在美“出差”買票坐飛機:坐靠窗位,電池超標致航班延誤,現場表演逗樂乘客

中國機器人在美“出差”買票坐飛機:坐靠窗位,電池超標致航班延誤,現場表演逗樂乘客

紅星新聞
2026-05-04 15:44:20
大快人心!白洋淀五一徹底涼涼,靠宰客斂財的景區終于迎來了報應

大快人心!白洋淀五一徹底涼涼,靠宰客斂財的景區終于迎來了報應

社會日日鮮
2026-05-05 20:11:56
連線四川華鎣女游客玩秋千身亡目擊者:其撞到瀑布凸出處大石

連線四川華鎣女游客玩秋千身亡目擊者:其撞到瀑布凸出處大石

南方都市報
2026-05-06 12:38:05
趙心童、吳宜澤之后,中國的第3位世錦賽冠軍,將在以下6人中產生

趙心童、吳宜澤之后,中國的第3位世錦賽冠軍,將在以下6人中產生

球場沒跑道
2026-05-06 12:04:26
美國剛扔出最毒芯片封鎖令,中國只用三天就回了一句:不需要你了

美國剛扔出最毒芯片封鎖令,中國只用三天就回了一句:不需要你了

菁菁子衿
2026-05-06 09:48:23
阿森納2-1淘汰馬競!20年后再進歐冠決賽+14場不敗 1.2億巨星制勝

阿森納2-1淘汰馬競!20年后再進歐冠決賽+14場不敗 1.2億巨星制勝

我愛英超
2026-05-06 04:56:33
2026-05-06 14:24:49
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12925文章數 142643關注度
往期回顧 全部

科技要聞

“馬斯克不懂AI”:OpenAI當庭戳老底

頭條要聞

吳宜澤稱欲拿獎金在英買房 50萬英鎊獎金需交稅超23萬

頭條要聞

吳宜澤稱欲拿獎金在英買房 50萬英鎊獎金需交稅超23萬

體育要聞

活塞1比0騎士:坎寧安不再是一個人了

娛樂要聞

神仙友誼!楊紫連續10年為張一山慶生

財經要聞

人形機器人七小龍:誰真能賣 誰在講故事?

汽車要聞

吉利原生新能源越野架構亮相 AI如何帶來極致越野

態度原創

本地
數碼
時尚
教育
公開課

本地新聞

用青花瓷的方式,打開西溪濕地

數碼要聞

be quiet!風冷DARK ROCK 6 / Pro 6發布,至高300W解熱能力

卷首語|這屆年輕人,全員渡劫奧德賽

教育要聞

中高考專題講座(2) 謹防“放羊”狀態

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版