網易首頁 > 網易號 > 正文 申請入駐

AI沖擊游戲行業?AI需要游戲行業

0
分享至

游戲「教」會了AI多少東西?

(封面圖由AI生成)

今年,葡萄君明顯感覺到,游戲行業里的「AI焦慮」達到了前所未有的巔峰。

我時不時會刷到「我的同事并沒有離開,他只是變成Skill繼續陪著我」的調侃;GPT-IMAGE-2上線的那天,我看到不少做美術的群友陷入恐慌,說自己要失業了……

從煉化Skill,到降本增效,AI對游戲行業、游戲人的沖擊,似乎在不斷加劇。

但AI,真的只是單方面在沖擊游戲行業嗎?

近日,大灣區人工智能應用研究院(GBAI),聯合完美世界、三七互娛、騰訊開悟,共同發布了《雙向賦能:AI與游戲的協同進化》產業應用研究白皮書。除了介紹AI賦能游戲生產的變革應用以外,白皮書還展開聊了一個有意思的點:AI發展背后,游戲的助推力功不可沒。

書中提到,算力、數據與算法是AI發展的核心三要素,而游戲能在數據側和算法側為AI賦能。

這可不是什么猜想或推論,而是現實:

《Minecraft》被用來幫AI拆解學習玩家行為;《GTA V》被學術界發掘為自動駕駛研究的天然環境;《Aivilization》證明了游戲作為社會規則模擬器的獨特價值;AI可利用《Atari》提升即時反應能力,通過《NetHack》提升在未知環境中的空間感知能力;AlphaStar 成為在星際爭霸領域首個擊敗頂級職業選手的AI……

往遠了看,游戲或許還能為AI賦能更多。比如在數據側,未來游戲也許還可以輔助AI建立時空感知;算法側,除了當驗證工具,游戲 環境有望在模擬復雜博弈場景與機制方面,為AI提供更多啟發。

AI與游戲的共生關系,大抵比我們表面看到的更加復雜。我們無法否認AI對游戲行業的沖擊影響,但或許,沖擊或碾殺游戲行業,并非是AI行業的理想結果。協同進化,才是AI、游戲的共贏目標。

以下為 《雙向賦能:AI與游戲的協同進化》第三章「游戲賦能AI技術發展」節選:

本章將聚焦于“游戲賦能AI技術發展”這一核心議題,從算力、數據、算法出發,構建分析框架,逐一界定其邊界并評估游戲在各維度的賦能方式。


算力、數據與算法是AI發展的核心三要素。算力是用于模型訓練與推理的硬件計算基礎,數據是AI學習的經驗載體,而算法則是將數據轉化為智能能力的邏輯范式。游戲產業對圖形處理的極致追求催生了GPU這一算力基石,在當下的賦能語境中,游戲真正的獨特價值在于其在數據側和算法側對AI的賦能。

然而,為了精準評估游戲在各維度的賦能方式與力度,我們需要透過游戲產業的娛樂表象,從本體論(Ontology)的高度重新審視游戲的本質:即游戲并非純粹的虛構娛樂,而是現實世界物理規則與社會規則的“邏輯投影”與“抽象映射”。基于這一邏輯基石,本章將探討游戲如何通過構建與現實世界同構的“規則環境”與“玩家交互數據”,如何為AI的數據供給與算法迭代提供獨特的驅動力,使其得以在低成本的虛擬空間中習得應對復雜現實世界的元能力。


具體而言,游戲所構建的規則環境與玩家互動數據資產,正為AI在數據供給和算法迭代兩大維度提供關鍵賦能,成為驅動AI從感知智能向決策智能躍遷的核心動力。

01

游戲的數據供給賦能

當下AI的發展正面臨著現實世界數據采集成本高昂、長尾場景稀缺以及標注效率低下的多重瓶頸。游戲作為一種高度結構化、邏輯自洽且可無限生成的數據容器,其數據的核心價值在于:游戲數據天然具備清晰的“狀態—動作—獎勵”(State-Action-Reward)閉環結構。這種結構化的數據流,不僅大幅降低了數據清洗與標注的成本,更通過可控的參數調節,為AI構建了一個涵蓋從微觀操作到宏觀博弈的全譜系數據工廠。

現階段,游戲對AI的主要賦能在玩家數據和合成數據這兩方面:如用《Minecraft》中的玩家數據訓練視頻模型;《GTA V》提供高逼真多模態駕駛數據與閉環控制接口,支撐感知模型訓練與強化學習等。

具體而言,游戲對AI的數據賦能主要通過玩家交互與規則環境的雙重路徑,在以下三個關鍵維度上實現了對現實數據的有效補充與替代:

  • 玩家數據賦能:游戲記錄了海量玩家在特定目標驅動下的決策軌跡。這些數據不僅是簡單的操作序列,更是人類經驗知識、策略偏好與價值判斷的數字化沉淀。通過分析這些數據,AI得以進行模仿學習,從模仿人類操作進而理解人類意圖,實現與人類價值觀的深度對齊;

  • 物理規則環境賦能:基于游戲引擎對光學、動力學及幾何規則的高保真模擬,游戲能夠生成符合客觀物理定律的合成數據。這為自動駕駛、具身智能等領域提供了零風險、低成本的訓練環境,尤其解決了現實中極端天氣、交通事故等長尾場景數據難以獲取的難題;

  • 社會規則環境賦能:游戲通過復刻經濟系統、組織架構與博弈機制,構建了人類社會的簡化模型。這種環境能夠源源不斷地生成涉及多智能體協作、資源博弈及社會治理的交互數據,幫助AI在缺乏現實樣本的情況下,預測復雜社會系統中的群體行為。

1.1 玩家數據賦能AI數據供給

玩家與游戲的互動,本質上都是人類在特定目標驅動下的“感知-決策-執行”閉環。與圖像文本等靜態數據不同,玩家的交互數據蘊含了人類在面對復雜環境時的先驗知識、因果推理邏輯與長程策略規劃。這種高密度的“狀態-動作-反饋”序列數據對訓練AI從“識別世界”走向“理解世界”的必要幫助。在此維度上,游戲賦能的核心在于:如何將海量非結構化的人類游玩記錄,轉化為AI可理解、可模仿的結構化訓練數據。

《Minecraft》因其極高的自由度、近乎無限的任務空間以及全球玩家貢獻的海量視頻資源,成為了獲取人類玩家通用操作邏輯的最佳游戲。相比于現實世界,《Minecraft》提供了一個動作粒度清晰、接口規范且容錯率極高的試驗環境,使其成為驗證“從視頻中學習行為”這一范式的理想場景。

OpenAI的VPT(Video PreTraining)項目是利用玩家數據賦能AI的數據供給的代表性工作。該項目并未依賴昂貴的人工逐幀標注,而是通過巧妙的數據合成管線,將互聯網上數萬小時的無標注游戲視頻轉化為了高質量的動作訓練集。該項目將海量人類游戲視頻數據與少量精確的鍵鼠軌跡數據結合,構建半監督的數據生成與學習框架,以較低的人工標注成本訓練可執行電腦操作的策略模型。該項目的工作流程如下:

01 首先利用小規模真值軌跡訓練逆動力學模型(IDM:Inverse Dynamic Model),使IDM在僅觀察視頻時推斷細粒度的鍵鼠動作序列;

02 隨后用該模型對大規模公開視頻進行自動動作標注,形成系統化的“視頻-動作”弱監督數據;

03 在此基礎上,通過行為克隆在自動標注數據上訓練基礎策略,使模型能從視覺歷史直接預測下一步鍵鼠操作;

04 模型通過小樣本微調適配特定任務,或在可定義獎勵的環境中結合強化學習提升目標性能。


該方法充分利用了《Minecraft》開放任務空間與原生鍵鼠接口的交互價值,構建了一套“少量真實數據標注—大規模自動標注—數據供給”的數據生產范式。借助以IDM為核心的數據轉化工具,該方法成功將玩家與游戲交互的非結構化視頻流轉化為高價值的訓練資產,為AI操作策略的訓練提供了一種可行技術方案,從而展現了玩家與游戲交互數據在AI數據供給層面的賦能潛力。

香港大學與快手科技聯合推出的GameFactory框架,則將玩家數據賦能AI數據供給這一思路推向了新的高度,從“模仿”走向“生成”。GameFactory利用在開放域視頻上預訓練的DiT模型,結合少量《Minecraft》游戲數據,實現了可響應玩家操作、實時生成多樣化游戲畫面操作的能力。這意味著AI不僅能拆解學習玩家行為,還能模仿并與玩家交互。

通過這兩個案例,我們可以更全面地看到,“游戲中的玩家數據”如何從行為模仿(VPT)和內容生成(GameFactory)兩個不同維度,為AI的數據供給提供持續動力。

1.2 游戲物理規則環境賦能AI數據供給

在現實世界中,獲取高質量的物理交互數據(特別是自動駕駛、具身智能領域)面臨著:高成本、高風險、不可控三重困境。例如,為了訓練自動駕駛應對交通事故,需要在現實中頻繁制造車禍。如果說玩家數據是人類智慧的結晶,那么游戲引擎內嵌的物理規則環境,則是一座自動化工廠——它利用AI的自我交互,源源不斷地產生高質量的合成數據。游戲引擎通過對時空幾何、動力學及光學感知的精確模擬,構建了一個符合客觀物理定律、卻又完全可控的虛擬環境。在此維度上,游戲賦能的核心在于:利用游戲引擎的渲染與物理模擬能力,批量生成帶有高質量標注的、覆蓋長尾分布的訓練數據。

《GTA V》憑借其工業級的高逼真渲染引擎和龐大的開放世界物理系統,被學術界發掘為自動駕駛研究的天然環境!禛TA V》提供了一個極其豐富且充滿隨機性的城市生態,以DeepGTA V為代表的仿真框架,打通了游戲生成合成數據的橋梁。它并未將游戲視為娛樂產品,而是將其轉化為一個可編程的多模態數據生成器。其賦能邏輯主要體現在以下兩個層面:

01 全要素可控生成:依托《GTA V》的腳本接口(如Script Hook V),研究者可以精確控制環境參數。通過代碼控制,調節出暴雨、大霧等極端天氣、擁堵的交通密度、突發的行人橫穿等場景。這使得AI能夠針對現實中極難捕捉的邊緣場景進行高強度的針對性訓練;

02 多模態數據的自動標注:在現實中,為圖像進行像素級的語義分割標注耗時耗力。而在DeepGTA V中,游戲引擎可以直接輸出底層的“真值”。平臺能夠同步生成與相機圖像嚴格對齊的深度圖、語義分割圖,以及車輛的動力學狀態(速度、加速度、方向角)。這為訓練AI對物理規則的感知提供了寶貴的數據。


DeepGTA V的案例證明了游戲的物理規則映射在數據供給側的獨特價值。雖然該路徑目前仍存在“虛擬—現實”之間的視覺差異,但其核心價值在于通過構建一個高保真、低成本、無風險的虛擬現實,為AI訓練早期階段(如:自動駕駛與具身智能)提供了不可替代的數據供給賦能。

在感知層面之外,游戲更在交互層面為AI提供了與物理規則環境交互的海量數據。Unity利用其游戲引擎為機器人開發創建的數字孿生環境便是典型代表。開發者可以在Unity中構建一個與物理機器人完全對應的虛擬模型,通過領域隨機化(Domain Randomization)技術,在模擬環境中隨機改變光照、紋理等參數,然后利用強化學習算法讓AI數百萬次主動交互和試錯,以學習抓取、移動等物理操作技能。由于模擬環境的高度逼真和數據多樣性,訓練出的模型可以直接部署到物理機器人上,實現從模擬到現實(Sim-to-Real)的有效遷移,解決了如何與世界互動的核心問題。

DeepGTA V與Unity數字孿生機器人這兩個案例清晰地展示了游戲技術如何為AI提供從“被動感知數據”到“主動交互數據”的端到端訓練閉環,有力地證明了游戲物理規則環境在賦能AI數據供給方面的核心作用。

1.3 游戲社會規則環境賦能AI數據供給

物理引擎為AI提供了驗證物理定律的硬規則數據場,而游戲內的經濟系統與社會組織,則為AI構建了生成交易、談判與組織協作等軟規則合成數據的虛擬社會。在現實世界中,進行大規模社會實驗(如改變某種經濟激勵政策)不僅成本高昂,更面臨極大的倫理風險。而游戲環境提供了一個容納成千上萬智能體的數字沙箱,能夠源源不斷地生成關于群體協作、資源博弈以及社會形態演化的交互數據。在此維度上,游戲賦能的核心在于:它允許我們在虛擬世界中預測未來,通過觀察不同規則下AI群體的自發行為,為現實世界的社會治理與智能體經濟設計提供數據支撐。

《Aivilization》是由香港科技大學團隊發起的一項大規模多智能體社會模擬實驗。這個項目在數字沙箱中創建了一個容納上萬個AI智能體的虛擬社區,其規模是2023年《斯坦福小鎮》的1000倍以上。在這個虛擬世界中,每個AI智能體都能夠自主地生活、工作、社交、制造和交易,構成一個高度仿真的社會生態系統。根據該團隊透露,該項目發起的動機分為三點:

01 通過讓公眾參與創建和優化智能體,實現AI技術的全民科普教育;

02 利用玩家創建的高質量智能體數據和人類反饋,為強化學習和模型蒸餾提供寶貴的訓練數據;

03 在AI數量迅速增長的時代背景下,通過這個實驗場景探索人類與AI共存的新模式,探索未來經濟、政治與社會體系上AI與人類共治的博弈合作場景。

在《Aivilization》的設計中,AI智能體之間建立博弈平衡的核心機制是經濟系統與排行榜體系的引入。與斯坦福小鎮純觀察AI社交行為不同,《Aivilization》為智能體設定了明確的經濟目標——通過工作賺取金錢并在排行榜上競爭。這種設計創造了一個多維度的博弈空間:智能體需要在工作時間、休息需求、社交投入和資源獲取之間尋找平衡點。項目還通過MBTI性格模型為不同智能體賦予差異化的行為傾向,使得它們在面對相同的競爭壓力時會采取不同的策略。然而,由于排行榜的激勵機制過于強烈,加上智能體缺乏人類的生理限制,系統最終演化出了一個意外的納什均衡——所有AI都選擇“007”工作制(全天候工作),因為任何選擇休息的智能體都會在競爭中落后。這種博弈平衡雖然并非設計者的初衷,卻真實地反映了在單一量化指標驅動下,理性個體如何陷入集體內卷的困境。


該項目展示了游戲社會規則如何為AI的數據供給賦能,其賦能邏輯體現在以下兩個層面:

  • 激勵機制下的群體行為涌現:《Aivilization》為智能體設定了明確的經濟目標與排行榜競爭機制。在這種單一維度的強激勵規則下,實驗產生了一個意料之外卻極具價值的數據現象——“內卷”的自發涌現。盡管沒有規則強制要求,但為了在排行榜上不掉隊,理性的AI智能體們自主進化出了“007工作制”(全天候工作,放棄社交與休息)。這種非合作博弈下的納什均衡,精準復刻了現實社會中因單一評價指標導致的困境。這種數據揭示了:即使是純理性的智能體,在特定的社會規則下也會陷入“帕累托次優”的集體困境;

  • 大規模交互數據的低成本生成:該項目還驗證了通過優化原子行為設計,可以大幅降低大規模社會模擬的Token消耗成本。這意味著我們可以在極低的算力成本下,反復運行不同的社會劇本,生成海量的關于交易、談判、結盟與背叛的社會交互數據。

《Aivilization》的案例證明了游戲作為社會規則模擬器的獨特價值。它生成的不再是簡單的動作,而是社會演化數據。這些數據不僅幫助AI學習如何在復雜的社會網絡中博弈與生存,更為人類觀察未來AI群體博弈的社會形態、設計更合理的AI治理規則提供了前瞻性的參照。


02

游戲的算法迭代賦能

如果說數據是AI發展的燃料,那么算法則是驅動智能進化的引擎。在AI算法“提出—優化—落地—泛化”的全生命周期中,游戲環境憑借其規則明確、反饋即時、復雜度可控的特性,成為了算法創新的核心試驗場。

相比文本、計算機視覺等領域,游戲對于AI算法迭代的獨特價值在于其在算法提出階段和優化階段的不可替代性。它提供了一個完美的受控環境,允許研究者在剝離現實干擾(如傳感器噪聲、倫理風險)的前提下,快速驗證新算法(如強化學習、模仿學習)的可行性。本節將沿用“物理—社會規則模擬”的雙重維度,深入探討游戲環境如何推動AI算法的實質性進化:

  • 物理規則環境:側重于利用游戲的時空邏輯,訓練以及檢驗AI的時空感知、因果推理與長程規劃能力;

  • 社會規則環境:側重于利用游戲的對抗機制,進化AI在非完全信息下的高維決策、戰略博弈與多智能體協作能力。

2.1 游戲物理規則環境賦能AI的算法迭代

本節將深入解析AI如何利用《Atari》的環境提升即時反應能力;借助《Minecraft》的復雜合成機制構建長程的時間因果推理;通過《NetHack》的隨機迷宮拓撲提升在未知環境中的空間感知能力。這些構建在物理規則之上的游戲世界,為AI提供了嚴苛的時空邏輯與因果約束。這種低成本、高容錯的物理沙盒,讓AI得以在游戲環境中迭代算法,從而完成從單純的數據擬合到具備物理感知的認知提升。

現實世界的物理交互具有連續演變且不可逆的特性,這要求AI不能僅停留在靜態分析層面,還必須學會在動態環境中做出即時的響應,即以毫秒級的速度對高維的視覺輸入做出精確的物理動作響應。這種“感知—決策”的端到端閉環,在《Atari》系列游戲中得到了驗證。

《Atari》游戲本質上是一個由剛體動力學(碰撞、速度、重力)支配的二維物理沙盒。為了在其中實現有效控制,AI確立了一套通用的算法范式:即通過整合值函數學習、離策略更新以及經驗回放與目標網絡,來克服動態環境的不穩定性。這一范式不僅適用于游戲,更成為后來推薦系統與機器人控制的通用模板。

Q-learning這一范式的雛形,最初是在簡單的迷宮游戲與低維物理模擬中被提出的。作為一種無模型(Model-free)、離策略更新(Off-Policy)的值函數學習方法,它的核心邏輯非常符合物理直覺:通過不斷地試錯,直接學習每一個“狀態—動作”對的“獎勵”和長期價值“Q”,并貪婪地選擇最優解。這為AI在未知環境中的自我學習奠定了理論基礎。


當AI試圖通關《Atari 2600》時,將面臨處理連續畫面的挑戰。游戲的連續畫面導致相鄰兩幀之間的物理狀態高度相關(例如球的軌跡是連續的)。這種時序相關性會導致神經網絡在訓練時發生劇烈的震蕩與發散。為了在游戲這個不穩定的物理流中實現穩定訓練,DQN引入了兩大關鍵機制,完成了從理論到工程落地的飛躍:

01 經驗回放:DQN將游戲過程中的歷史操作存儲在一個巨大的記憶庫中,并進行隨機打亂與重采樣。這打破了物理時間原本的連續性與相關性,極大地提升了樣本利用率;

02 目標網絡:通過引入一個延遲更新的網絡來計算目標值(貝爾曼方程的解),為訓練提供了一個相對靜止的錨點,有效抑制了動態環境中的目標漂移。

AI在Atari游戲中迭代出的新算法范式,最終走出了游戲,成為了解決離散決策問題的通用框架之一,并被應用在以下場景中:

  • 推薦與廣告系統:在這些系統中,用戶的歷史點擊日志就如同游戲的“經驗回放”。利用離線日志進行策略評估與改進,結合Q-Learning控制分布外估計偏差,成為了工業界優化點擊率的核心手段;

  • 機器人與自動駕駛:在處理具體的物理子任務時,DQfD(Deep Q-learning from Demonstrations)技術將人類專家的操作軌跡(演示數據)與機器人的自采樣數據統一放入回放緩沖。這不僅提高了樣本效率,更降低了機器人在早期物理探索中的碰撞風險。

這一范式的提出,展現出游戲中的物理規則對于AI算法迭代的獨特價值:Atari游戲模擬了現實世界最核心的邏輯——高維度輸入(視覺)+低維度輸出(動作)。在此環境下,AI算法必須能夠穿透復雜的視覺噪音,捕捉并鎖定速度、位置、軌跡等核心物理要素;游戲環境天然產生海量的交互數據,驗證了離策略學習的可行性。這使得工業界意識到,不需要實時與用戶或機器人交互,僅憑歷史的經驗回放就能訓練出超越當前策略的模型;游戲中的物理規則雖然簡單,但具備了現實物理世界最基本的特性(如慣性、碰撞)。AI算法在游戲中習得的穩健決策——即在動態環境中保持目標網絡穩定的能力,決定了它在面對真實世界中更復雜場景時的泛化能力。

現階段,以大語言模型為代表的AI模型,已能夠較好處理文本中的先后順序、相對時間關系與常見日歷規則(如閏年、時區換算),并可生成可行的初步計劃;但其能力仍主要依賴提示與數據中的顯式線索,缺乏內生的時間感知。這種缺失使得AI在面對涉及長周期因果鏈的復雜任務時,難以準確預測當前行為對未來的延遲影響,從而導致其無法在動態環境中維持決策的長期一致性。因此,在制定具體計劃時,目前業界多借助外部工具與檢索增強來提升AI的時間感知,但要實現穩健且長期一致的時間推理,仍需要更強的時間一致性訓練目標以及與可執行工作流的協同。

值得注意的是,以《Minecraft》為代表的開放世界沙盒游戲,因其無預設終點、技能樹深且復雜、任務時間跨度長,成為迭代AI時間感知與長程規劃算法的理想試驗臺。《Minecraft》要求玩家在長達數百小時的進程中持續探索、積累技能并解鎖技術樹:從最初的采集木材、烹飪食物,到逐步對抗怪物、制作鉆石工具等高階目標,構成了清晰的時間依賴與階段化目標層級,將時間約束具象化為可學習的結構,使AI必須在不同時間尺度間協調其行為策略。

基于《Minecraft》環境,Voyager智能體展現了如何在凍結GPT-4參數的前提下,引入外部知識記憶系統,構建具備“時間能力”的智能體。其時間能力由三大模塊協同塑造:

01 自動課程機制(Automatic Curriculum):根據當前探索進度與智能體狀態動態生成任務序列,實現“由易到難”的時間階段性推進。例如,在沙漠環境中優先學習采集沙子與仙人掌,而非森林中的鐵礦開采;

02 技能庫系統(Skill Library):以可執行代碼形式存儲已掌握的復雜行為(如craftStoneShovel、combatZombieWithSword),通過語義檢索實現跨時間的技能復用與組合,使簡單技能在時間維度上復合為高階能力,同時緩解災難性遺忘;

03 迭代提示機制(Iterative Prompting Mechanism):將環境反饋、執行錯誤與自我驗證整合為閉環,使智能體在每個任務周期內通過多輪代碼生成與調試逐步逼近目標,形成“感知—行動—反思”的時間閉環。


實驗結果顯示,Voyager在時間理解與行動效率方面均取得顯著提升。更重要的是,其技能庫能夠在新世界中進行零樣本遷移,表明智能體已將時間結構化的知識抽象為可泛化的策略表征。這一范式的出現揭示了游戲模擬的物理規則在AI時間感知算法迭代上的獨特賦能價值:借助明確的階段性目標、可量化的進度指標與可重復的任務結構,游戲為智能體提供了壓縮時間的學習場景——在虛擬世界中數小時的訓練,往往可等效于真實世界中難以獲得的長周期交互。

然而,現有方法仍依賴大語言模型的先驗知識來進行任務分解與時間規劃,對于完全未知的時間依賴(如全新游戲機制或動態環境變化)的自主發現能力仍顯不足。此外,技能庫的時間索引機制尚未顯式建模任務間的時序因果關系,對“必須先完成A才能執行B”這類硬性時間約束缺乏結構化表征。未來則需要在自動化時間依賴發現、多尺度時間規劃優化,以及跨域時間知識遷移等方面建立更為精細的評估基準與約束機制。

如果說Voyager搭建了大語言模型智能體的宏觀行為框架,那么Optimus-3項目則將研究深入到了模型架構的微觀層面。它同樣是一個專為《Minecraft》設計的通用多模態大模型智能體,但其核心貢獻在于提升了智能體在執行復雜多樣性任務的能力。Optimus-3引入了MoE(Mixture-of-Experts)架構,通過任務路由將不同的指令分配給專門的專家子網絡處理,確保模型在學習新技能時不會遺忘舊技能。同時,它還通過知識增強的數據生成管道和多模態推理增強的強化學習等方法,全面提升了智能體的感知、規劃、動作和反思能力。

結合Voyager與Optimus-3這兩個案例,我們可以清晰地看到游戲環境如何賦能AI的算法迭代。這不僅是從能不能做到做得更好的性能提升,更是從行為框架設計到模型架構創新的深度進化,完整地展示了游戲在推動AI算法迭代中發揮的關鍵作用。

現階段,基于深度學習技術的AI模型,已能夠較好處理靜態場景的3D理解、已知地圖的路徑規劃與結構化環境中的物體檢測;但其能力仍主要依賴完整觀測與預定義環境,缺乏內生的空間建模。因此,在部分觀測條件下導航時,常出現重復探索、空間記憶缺失等問題。目前業界多借助外界工具(如SLAM算法:Simultaneous localization and mapping)、多傳感器融合與強化學習來提升AI的空間感知,但要實現穩健且通用的空間推理,仍需迭代出更強的空間感知與推理算法。

游戲模擬的空間規則所具有的狀態可編程、存在不完全信息、交互反饋明確、支持低成本重復實驗等特性,可以賦能AI迭代算法以提升空間感知和推理能力。在此背景下,《NetHack》作為一款經典的Roguelike地牢探索游戲,因其高度的隨機性、復雜的狀態空間和長遠決策需求,被研究社區廣泛用作評估AI智能體空間感知與策略規劃能力的基準平臺。


《NetHack》的游戲機制可以在以下幾個方面促進AI的空間理解和推理能力算法的迭代:

  • 動態生成的拓撲結構:每次游戲的地圖布局、陷阱位置完全隨機,迫使AI無法依賴記憶,必須具備實時的空間分析與建模能力;

  • 嚴格的視野限制:未探索區域一片漆黑,AI必須基于有限的視覺信息,推斷墻后的結構或潛在的威脅(如怪物、陷阱);

  • 多層級的空間記憶:任務往往跨越多個樓層,AI需要記住“地下二層的樓梯”通向哪里,篩選出具有建立長程空間記憶的AI算法。

早在2020年,Meta提出的NetHack Learning Environment(NLE)即為AI的空間感知和推理能力評測建立了標準化框架。評測指標主要包括游戲得分(反映整體表現)、探索覆蓋率(直接反映空間感知能力)、任務完成率(特定子任務的成功率)、生存時長(反映風險評估與空間安全性判斷能力)和樣本效率(達到特定性能所需的訓練樣本數)。這些指標從不同角度量化了智能體的環境感知與決策能力,為算法對比提供了客觀依據。


由于《NetHack》的狀態空間極大且獎勵稀疏,純端到端方法往往陷入局部最優。針對《NetHack》環境,研究者迭代了多種算法來增強AI的空間感知和推理能力。

  • 多層次強化學習將任務分解為多個子目標,通過層次化的策略網絡分別學習不同層次的空間決策,能夠顯著提升智能體在長期任務上的表現;

  • 記憶增強架構引入外部記憶模塊或基于注意力機制的Transformer架構,使智能體能夠存儲和檢索歷史空間信息,這提升了AI的跨層感知規劃的任務得分;

  • 引入內在獎勵機制(如探索獎勵、預測誤差獎勵)來驅動智能體的空間探索行為,使智能體能夠更快地建立對環境的全局認知;

  • 符號與神經混合方法結合符號推理與神經網絡的優勢,使用神經網絡進行感知與特征提取,使用符號系統進行高層次的空間規劃與推理,在可解釋性和樣本效率上表現出優勢;

  • 零樣本大語言模型Agent在提供充分上下文和清晰任務描述時能有效執行局部任務,但在自主長期游玩、模糊目標與缺乏顯式反饋下表現明顯不如基于規則系統的Agent。

《NetHack》作為游戲,其模擬的空間規則環境對AI的算法迭代有著獨特的價值:即提供了低成本、可控且可重復的高效訓練與驗證環境。其復雜度接近真實世界,避免了過度簡化的測試環境;確定的游戲機制和高隨機性的地圖,便于對比不同模型間的空間感知和推理能力;多維度評估可從探索、規劃、推理等多個角度評估空間感知能力;相比真實世界,游戲環境提供了低成本的試驗場。

然而,該平臺也存在一定的局限性:游戲空間采用離散的網格化表示,與真實世界的連續空間存在差異;符號化表征的ASCII字符輸入與真實視覺感知存在較大差距;僅提供單智能體場景,缺少多智能體協作測試,因此,其場景的泛化能力有待驗證。

此外,我們也注意到,游戲引擎對世界模型的算法迭代具有一定的賦能價值。谷歌的Genie世界模型通過從海量互聯網視頻中學習,可直接生成可交互的虛擬世界,展示了其從未結構化數據中歸納世界運行規律的潛力。在訓練階段,游戲引擎內置的抽象物理規則提供了一個穩定、可控的“世界模擬器”,能讓世界模型在遵循精確物理定律的環境中執行動作、觀察結果,從而高效、一致地迭代和優化其內部世界表征的算法。在預測階段,可用于生成大規模、分布可控的交互數據;在后訓練和強化學習階段,可用于評估模型行為是否穩定、合理、可執行。

2.2 游戲社會規則環境賦能AI的算法迭代

游戲模擬社會規則環境對算法迭代的首要價值,在于游戲構建了一個“狀態—行動—反饋”的閉環。首先,游戲環境能夠以遠超現實世界的速率進行交互,為AI提供了極高頻的試錯空間與即時反饋信號。這種高密度的反饋循環,極大地加速了算法從提出到優化的迭代效率,使得在現實中需要數年的進化過程得以在虛擬時空中快速收斂。同時,由于游戲環境高度還原了真實社會中的資源約束與博弈結構,在此類嚴苛規則下驗證通過的算法,天然具備了向其他現實復雜領域遷移的強大泛化能力。

此外,游戲模擬社會規則環境對算法迭代的價值,還在于它構建了一條平滑的難度成長曲線。通過對交互結構、時間流速、公平性與信息可見性的差異化配置,游戲環境為AI算法搭建了博弈能力的四個維度,使其能夠循序漸進地掌握復雜的社會規則。我們可以引入四個核心維度,來刻畫這一從簡單邏輯到復雜社會模擬的進化路徑:

  • 單體/多體維度關注隊內信息交換的可能性與價值:單體指每個隊伍僅有一名玩家(或一個智能體),或者有多名成員但無法在對局中交換信息;多體則指每個隊伍由多名玩家組成,且隊內溝通與協作會顯著影響決策與勝負;

  • 離散/連續維度刻畫時間與狀態演化方式:離散表示游戲以回合或步驟為單位推進,狀態在離散時刻更新;連續表示游戲狀態在時間上連續演化,即時反饋,玩家需實時決策;

  • 對稱/非對稱維度反映對局雙方(或多方)在人數、獲勝條件等方面是否等量或等價;對稱游戲在結構上是鏡像或等價設定,非對稱游戲則在角色、目標或資源上存在系統性差異;

  • 信息完全公開和信息非完全公開維度聚焦信息可見性:完全信息意味著所有狀態對各方可見,非完全信息則存在私有信息或受限視角,要求參與方在不確定性下進行博弈。

這種從簡單封閉向開放復雜環境的演進,清晰地勾勒出游戲如何通過規則維度的“右移”(單體→多體、離散→連續、完全信息→非完全信息),逐級賦予AI更深層的社會認知能力。圍棋(單體/離散/完全信息),因剝離了協作干擾與信息迷霧,僅保留了最基礎的博弈規則,主要訓練AI在純粹邏輯空間內的計算能力。隨后,RTS游戲(如《星際爭霸II》)引入了“連續時間”與“非完全信息”,迫使AI直接面對實時的高頻狀態更新與戰爭迷霧,使其必須學會動態控制與信息推斷,在不確定性中進行風險管理與決策。進而,MOBA游戲(如《王者榮耀》)在上述基礎上疊加了“多體”維度,它要求AI處理復雜的溝通與協作,理解并履行特定的分工,從而構建起基于團隊生態的社會協作能力。大逃殺類FPS(如《PUBG》)引入了“非對稱性”結構,模擬了資源匱乏之下的社會生存形態。盡管非對稱性的復雜度影響不及信息與時間維度,但它改變了博弈均衡,讓AI學習到非對稱博弈下的行動策略。


游戲模擬的社會規則環境為AI提供了一條從簡單邏輯博弈(圍棋)到復雜戰爭模擬(《星際爭霸II》)的清晰進化路徑。在圍棋這一完全信息、離散的游戲場景中,AlphaZero完成了AI博弈邏輯的第一次革命性重構。它摒棄了傳統依賴人工特征的舊范式,提出了一套“深度網絡直覺+蒙特卡洛樹搜索(MCTS)”的通用框架。它的核心思想在于:利用策略網絡(Policy Network)模仿人類棋手的“第一感”(直覺),快速篩選高價值落子點;利用價值網絡(Value Network)評估局面優劣;最后通過MCTS進行深度的邏輯推演。這套算法范式在圍棋、國際象棋和日本將棋中得到了快速驗證。AlphaZero證明了這套“網絡先驗+學習評估+受限搜索”的組合,可以在無人類知識輸入的情況下,僅憑規則自我進化至超越人類的水平。這一范式不僅攻克了棋類游戲,更被遷移至編譯優化、芯片版圖設計等組合優化領域,證明了“學習—搜索”模型在解決復雜決策問題上的通用性。


當博弈場景從靜止的棋盤升級為實時、非完全信息、多兵種協同的《星際爭霸II》時,AI面臨的挑戰呈指數級上升。這不再是單純的計算,而是一場模擬現代戰爭的社會規則博弈:AI需要處理戰爭迷霧(信息不對稱)、資源管理(經濟規劃)、兵種克制(戰術博弈)以及數百個單位的實時微操。

AlphaStar的出現標志著AI攻克了這一更接近人類社會規則模擬的游戲世界。不同于以往依賴人工規則簡化,AlphaStar采用了端到端的深度神經網絡架構。AlphaStar進行了全維度的戰爭模擬,它直接從原始游戲數據中學習,完整覆蓋了偵察、擴張、騷擾、決戰等戰爭全流程,無需任何規則簡化。通過模仿人類高手操作的監督學習開始,再通過多智能體強化學習,在游戲中實現自我對戰進化。最終在2018年12月19日的測試賽中,AlphaStar以5:0的戰績擊敗了Team Liquid的戰隊的職業選手,成為在星際爭霸領域首個擊敗頂級職業選手的AI。


盡管AlphaGo-AlphaStar這一套基于強化學習的算法迭代,證明了在特定戰爭模擬中的統治力,但其高昂的訓練成本與有限的泛化能力(換一張地圖可能就需要重訓)成為了新的瓶頸。這促使研究界開始將目光投向大語言模型。大語言模型憑借其強大的語義理解與零樣本泛化能力,正被嘗試用于更開放、更具社會屬性的博弈場景,試圖解決傳統強化學習難以應對的跨情境遷移難題。然而,大語言模型擅長靜態的邏輯推理,一旦進入需要高頻交互與實時反饋的游戲環境,往往無法將宏觀策略轉化為微觀操作。此時,如《王者榮耀》這類MOBA游戲高強度團隊分工與即時決策的社會模擬環境,成為了連接語言與行動的關鍵橋梁。

騰訊AI Lab的TiG(Think in Games)項目,展示了游戲規則環境如何賦能大語言模型從“解釋者”到“執行者”的進化。在《王者榮耀》復雜的5v5社會博弈中,TiG并沒有簡單地用大語言模型發指令,而是構建了一套“顯式思考—動作執行”的閉環系統,解決了大模型在動態博弈中的落地難題。


在傳統社會博弈中,意圖思考往往是隱性的。TiG強調模型將決策過程顯式化,要求AI在每一步操作前對外輸出其思考的思維鏈。通過在游戲環境中將SFT(監督微調)和GRPO(組相對策略優化)結合,將抽象的社會規則嵌入AI的神經網絡中。比如AI學會了射手(ADC)應該生存優先,伺機輸出;輔助應該保護隊友。這不再是硬編碼的規則,而是AI在王者榮耀中學習到的社會分工與游戲意識。通過稀疏與密集混合獎勵,AI從早期的盲目激進,逐漸進化出“敵方動向不明時保守運營”、“優先拆塔而非殺人”等符合高水平競技社會規范的穩健策略。此外,游戲環境的高信噪比反饋,使得較小參數規模的模型也能通過交互式學習達到驚人的效果。通過對抗驗證AI的CoT(思維鏈),確保AI的思考與行動一致,TiG證明了在清晰的規則反饋下,小模型可以習得超越大模型的推理質量與執行效率。

如果說AlphaGo-AlphaStar證明了AI可以在復雜的社會規則中做出超越人類的決策,那么TiG則證明了AI可以理解復雜社會規則的運作邏輯。游戲環境在這里成為了一個嚴苛的社會規則模擬器,其賦能算法迭代的核心邏輯在于建立了一個“狀態—行動—獎勵”的閉環驗證機制:它使AI將抽象的決策,放置于游戲嚴密的因果約束中進行驗證。通過高強度的對抗與即時反饋,AI不斷修正其對規則的理解,最終錘煉出了可執行、可解釋且具備魯棒性的決策序列。這為未來AI在真實世界中理解人類指令、執行復雜協作任務提供了可復用的技術路徑。

此外,字節跳動的Game-TARS也是利用游戲環境來賦能AI在操控上的算法迭代的例子。和TiG中利用后訓練不同,Game-TARS利用預訓練技術,旨在構建一個通用的端到端多模態智能體,使其能夠像人類一樣通過視覺感知,自主操作包括復雜游戲界面在內的各類數字系統。該項目將游戲環境視為包含復雜人機交互邏輯與模擬人類社會約束的數字沙盒,利用其動態的視覺反饋和隱含的規則約束,訓練模型在非結構化場景中理解意圖、遵循邏輯并規劃路徑。

游戲場景提供的高頻交互數據與長鏈路決策挑戰,為算法提供了低成本、高效率的進化環境,驅動模型通過在游戲中的試錯與迭代,涌現出能夠遷移至真實世界復雜軟件操作的通用泛化智能。


03

未來展望

綜合前文分析可知,游戲本質上構建了一個與現實世界同構的規則環境。這種環境為AI提供了低成本習得復雜現實世界元能力的試驗場;诖吮倔w論視角,我們將從數據供給與算法迭代兩個維度,推演游戲在未來的戰略價值:

  • 在數據供給層面,游戲通過可編程接口與高保真引擎提供低成本、可控且可復現的合成數據來源;

  • 在算法迭代層面,游戲環境為“提出—優化—落地—泛化”的完整閉環提供了規則明確、反饋即時的驗證平臺。


展望未來,這種賦能形態可能會向著更具深度的方向發展:在數據側,我們期待看到其價值從基礎數據的擴充,向輔助AI建立物理時空感知的方向深化;在算法側,除了作為標準化的驗證工具,游戲環境也有望在模擬復雜博弈場景與機制方面,為AI帶來新的啟發與突破。

3.1 賦能數據供給:從“靜態樣本”到“時空因果”

游戲在數據側的價值,主要在于為AI提供包含人類決策邏輯的動態軌跡數據與符合客觀規律的物理規則映射數據。整體呈現出基礎數據穩固沉淀,高階感知逐步探索的分化趨勢。

游戲在數據側的賦能價值,正在經歷一場從量變到質變的過程。它不再僅僅是提供海量交互數據和合成數據的來源,而是逐步提供包含人類決策邏輯的動態軌跡與符合客觀規律的世界模型;谇拔奶岬降囊巹t環境映射論,這一賦能趨勢在時間維度上呈現出明顯的分化特征:

  • 在基礎層面,游戲作為高效的交互數據源,持續為AI學習特定場景下的人類思維決策提供豐富的參考樣本;

  • 在進階層面,隨著技術深入,游戲引擎在物理一致性上的優勢有望得到進一步挖掘,這或許能幫助AI構建對現實世界時空、因果的理解,為通往具身智能提供一個低風險的驗證環境。

1. 玩家交互數據:存量價值的邊際遞減

玩家在游戲中產生的高密度“狀態-動作-反饋”動態軌跡,本質上是人類思維過程的數字化沉淀。相比于互聯網文本或圖像等靜態數據,這種數據完整記錄了人類在面對特定目標時的決策邏輯與試錯回路,為AI提供了極高信息密度的模仿學習樣本。

盡管人類數據并非最優決策——玩家會犯錯,會非理性操作,給數據清洗帶來了巨大成本;但是從AI學習人類智能的角度,海量的玩家交互數據依然有很大的價值。在幫助AI學習人類智能之外,游戲中的人類數據也可幫助AI未來更好地理解人類、服務人類、與人類和諧相處。

不過,現在的AI訓練趨勢已經從人類學習轉變為左右互博。與其通過海量游戲日志去進行篩選,不如讓AI在掌握基礎規則后自我演練。因此,人類玩家數據不再是核心賦能,而是更多作為一種校準工具,用于確保AI的行為模式不偏離人類價值觀,而非單純提升能力。

2. 物理規則映射:時空感知的關鍵加速器

不同于數據的簡單堆砌,游戲引擎通過對時空幾何、動力學及光學感知的精確模擬,構建了一個符合客觀物理定律的仿真試驗場。在這一物理規則映射的環境中,AI得以彌補當前大模型在具身感知上的短板——即在時間維度上學習長程因果規劃(如動作的延遲與后果),在空間維度上建立三維拓撲感知(如深度、遮擋與導航)。

在現實世界中訓練機器人進行極端測試(如自動駕駛的碰撞避免)成本高且危險,而游戲環境允許AI在絕對安全的沙盒中通過千萬次虛擬撞擊來習得物理邊界。盡管存在Sim-to-Real Gap,游戲環境依然是目前訓練AI時空因果推理的最佳性價比選項。因此,在未來中短期內,游戲將成為時空感知能力提升的關鍵加速器。盡管長期來看,視頻生成模型與具身智能實體交互可能成為替代路徑,但當前階段是游戲在這一維度發揮價值的黃金窗口期。

3.2 賦能算法迭代:從“驗證平臺”到“模擬推演”

游戲在算法側的賦能價值,正從單純的技術驗證平臺,升級為模擬人類博弈、資源分配及組織協作機制的規則映射試驗場;谇拔牡谋倔w論視角,這一演進呈現出基礎驗證功能穩固,高階實驗價值凸顯的雙重格局:

  • 基礎層:游戲作為標準化驗證平臺的地位長期穩定,是檢驗強化學習等各種AI算法的基石;

  • 高階層:游戲正演變為探索多智能體博弈的場景,是迭代AI算法以適應未來社會的關鍵試驗場,其在復雜系統研究中的參考價值正逐漸被業界所重視。

1. 算法驗證平臺:工具屬性的長期穩固

游戲環境憑借其可控性、可復現性與低成本特征,為算法提供了規則明確、反饋即時的試驗場,特別是在多智能體強化學習等領域,游戲仍是檢驗算法魯棒性與穩定性的標準考場。

無論算法架構如何迭代,游戲作為AI驗證平臺的功能不會改變——它為智能體提供了一個高頻反饋的試驗場,用于驗證算法在極端狀態下的穩定性。當前大模型技術路線的成功放大了文本、圖像、視頻作為載體的價值,但游戲與其他載體的區別在于實時交互和動態演繹。大模型技術賦予了AI高度的智能,而游戲作為檢驗AI在實時交互、動態博弈及適應人類行為中自我進化的試驗場,依然具有不可替代的價值。隨著市場日益重視用戶理解、人機協作以及算法的自適應進化,這種基于游戲場景的探索價值將得到更深遠的體現。

2. 博弈關系映射:未來賦能關鍵引擎

隨著AI的規;l展,我們需要預判:當成千上萬個智能體同時互動時,究竟會發生什么?是走向合作共贏,還是陷入惡性內卷?為了確保AI沿著人類預期的路徑受控發展,我們需要明確算法的升級方向與治理機制。

博弈模擬是為了讓AI迭代出具有“社會共存”能力的算法。游戲構建了一個包含合作、競爭、欺騙與談判的微縮社會,這是訓練AI處理復雜人際關系與社會倫理的絕佳場所。

在游戲這一具有模擬社會規則的驗證環境中,我們能夠提前識別系統性風險,并據此針對性地迭代算法。這種預演能力是游戲賦予AI產業最寶貴的戰略資產,也是未來通往AGI的必經之路。

回顧本章,游戲已超越單純的娛樂屬性,憑借其作為現實世界邏輯投影的本質,深刻重塑了AI在數據供給與算法迭代上的進化邏輯。展望未來,這一賦能體系將呈現出如下趨勢:在數據維度,玩家交互數據的邊際價值遞減,而基于物理引擎的時空感知訓練正迎來黃金窗口期;在算法維度,標準化驗證的工具屬性將長期存在,但基于社會博弈模擬的賦能價值將持續提升。最終,游戲對AI的深層賦能,在于提供了一個可以無限重啟的“平行宇宙”:讓AI在其中歷經千萬次博弈與協作,從而在算法基因中刻入理解人類、適應社會的元能力,成為真正可信、可共生的通用智能。

游戲葡萄招聘商務經理,

| |

| |

游戲行業書籍推薦: 葡萄書房

(星標可第一時間收到推送和完整封面)

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
1997年蔣緯國去世的消息轟動臺灣,但不是他的死訊,而是他的遺言

1997年蔣緯國去世的消息轟動臺灣,但不是他的死訊,而是他的遺言

浩渺青史
2026-04-27 16:24:04
未來10年最吃香的 “鐵飯碗”,這6個行業,抓住一個終身躺贏!

未來10年最吃香的 “鐵飯碗”,這6個行業,抓住一個終身躺贏!

細說職場
2026-04-25 19:55:42
難怪張柏芝準備壽衣遺照!謝霆鋒不再隱瞞,坦白不娶王菲另有其因

難怪張柏芝準備壽衣遺照!謝霆鋒不再隱瞞,坦白不娶王菲另有其因

秋姐居
2026-04-13 09:58:48
這是迄今為止,我見過身材最美的女人之一,不接受反駁

這是迄今為止,我見過身材最美的女人之一,不接受反駁

小椰的奶奶
2026-04-11 12:33:07
哎!居然是跟腱斷裂。

哎!居然是跟腱斷裂!

柚子說球
2026-04-27 12:34:08
第一集就全裸出鏡,女神新劇破格出演了

第一集就全裸出鏡,女神新劇破格出演了

來看美劇
2026-04-27 16:21:10
謝逸楓:顫抖吧!一季度賣地收入大跌,不足6000億元

謝逸楓:顫抖吧!一季度賣地收入大跌,不足6000億元

謝逸楓看樓市
2026-04-27 09:54:05
淚目 趙心童曬兒時與丁俊暉合照:偶像暉哥讓我加油 你也要加油啊

淚目 趙心童曬兒時與丁俊暉合照:偶像暉哥讓我加油 你也要加油啊

風過鄉
2026-04-27 06:15:09
傷得很深!男子打賞女主播近300萬,想結婚時才知對方女兒都20歲了:我只顧為愛沖鋒,結果她全是假話

傷得很深!男子打賞女主播近300萬,想結婚時才知對方女兒都20歲了:我只顧為愛沖鋒,結果她全是假話

臺州交通廣播
2026-04-10 16:23:25
河南省紀委監委:張文忠被查

河南省紀委監委:張文忠被查

濮陽市廣播電視臺
2026-04-27 19:33:55
20歲云南小伙迪拜打工遇俄羅斯單親媽媽,跨國求婚卻遭戰火阻隔

20歲云南小伙迪拜打工遇俄羅斯單親媽媽,跨國求婚卻遭戰火阻隔

愛寫作的洋洋
2026-04-18 09:14:07
國防部長被炸身亡!俄羅斯外交重大損失,關鍵時刻雪上加霜

國防部長被炸身亡!俄羅斯外交重大損失,關鍵時刻雪上加霜

Ck的蜜糖
2026-04-27 18:28:24
太可怕了!繼注射藥物、熱巴事件后,王陽再揭娛樂圈最臟的一面

太可怕了!繼注射藥物、熱巴事件后,王陽再揭娛樂圈最臟的一面

橙星文娛
2026-04-17 13:19:56
湖人慘敗火箭回到主場繼續賣票,詹姆斯一數據很不正常,肖華笑了

湖人慘敗火箭回到主場繼續賣票,詹姆斯一數據很不正常,肖華笑了

姜大叔侃球
2026-04-27 12:57:40
阿里納斯:詹姆斯退役后、媒體再無流量!選他而不是喬丹來建隊!

阿里納斯:詹姆斯退役后、媒體再無流量!選他而不是喬丹來建隊!

歷史第一人梅西
2026-04-27 10:59:36
4年磨一劍,第二代騰勢D9上市,35.98萬元起售

4年磨一劍,第二代騰勢D9上市,35.98萬元起售

一同選車
2026-04-27 21:24:26
告別北京老校區!4所211集體遷入雄安,2027年直接迎新生

告別北京老校區!4所211集體遷入雄安,2027年直接迎新生

Delete丨CC
2026-04-27 13:27:06
核按鈕前的躊躇:為什么俄羅斯寧肯認輸,也不敢按下那個按鈕

核按鈕前的躊躇:為什么俄羅斯寧肯認輸,也不敢按下那個按鈕

民間胡扯老哥
2026-04-26 14:24:18
多存錢,50歲以后,存款達到“這個數”,你的家庭就很有底氣了!

多存錢,50歲以后,存款達到“這個數”,你的家庭就很有底氣了!

貓叔東山再起
2026-04-27 12:10:07
剛剛!官方點名張家界天門山、麗江古城、玉龍雪山、黃河壺口瀑布、桂林漓江、嵩山少林寺等景區,嚴肅批評、集中整治!

剛剛!官方點名張家界天門山、麗江古城、玉龍雪山、黃河壺口瀑布、桂林漓江、嵩山少林寺等景區,嚴肅批評、集中整治!

揚子晚報
2026-04-27 16:31:23
2026-04-27 23:31:00
游戲葡萄_ incentive-icons
游戲葡萄_
有判斷,有前瞻。
15208文章數 25651關注度
往期回顧 全部

游戲要聞

LPL又一超級強隊誕生!S賽冠軍復出豪取六連勝,小局12-0一場不敗

頭條要聞

水庫放水21人被困下游河灘 有人讓家人踩肩頭爬樹避險

頭條要聞

水庫放水21人被困下游河灘 有人讓家人踩肩頭爬樹避險

體育要聞

最抽象的天才,正在改變瓜迪奧拉

娛樂要聞

黃楊鈿甜為“耳環風波”出鏡道歉:謠言已澄清

財經要聞

Meta 140億收購Manus遭中國發改委否決

科技要聞

DeepSeek V4上線三天,第一批實測出來了

汽車要聞

不那么小眾也可以 smart的路會越走越寬

態度原創

手機
本地
藝術
親子
公開課

手機要聞

性能最激進的安卓旗艦!一加16已在路上:首批搭載滿血版驍龍8E6 Pro

本地新聞

云游中國|逛世界風箏都 留學生探秘中國傳統文化

藝術要聞

你絕對想不到,攝影能讓她成為女神!

親子要聞

教孩子防侵犯誤區:對熟悉的壞人孩子不會害怕和恐懼!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版