網易首頁 > 網易號 > 正文 申請入駐

北大攜手北郵,教AI"感知光線"—讓生成視頻真正懂得光影的秘密

0
分享至


這項由北京大學多媒體信息處理國家重點實驗室、北京大學視覺技術國家工程研究中心、北京郵電大學人工智能學院,以及北京智源人工智能研究院聯合開展的研究,于2026年4月以預印本形式發布,論文編號為arXiv:2604.07966。有興趣深入了解技術細節的讀者,可以通過該編號在arXiv平臺查閱完整論文。

**一場關于"光"的革命,從視頻生成開始**

如果你曾經用過AI視頻生成工具,大概有過這樣的體驗:生成出來的畫面乍一看很漂亮,但總感覺哪里不對勁。仔細一看,問題往往出在光線上——桌上的玻璃杯沒有反光,金屬表面沒有高光,陰影方向亂七八糟,甚至同一個畫面里,有的物體看起來是在晴天拍的,有的又像是陰天。這種感覺就像一張照片里同時存在兩個太陽一樣違和。

光線,是讓一段視頻看起來真實的靈魂所在。人類的眼睛對光線極度敏感,哪怕只是細微的不協調,我們的大腦就會立刻發出"這不對勁"的信號。對AI來說,"畫"出一個合理的光影世界,遠比畫出一把椅子或一棟樓困難得多。

這就是LiVER這個研究框架要解決的核心問題。LiVER的全名是"Lighting-grounded Video genERation",中文可以理解為"以光照為基礎的視頻生成"。研究團隊的思路是:與其讓AI去"猜"光線應該是什么樣的,不如直接把物理世界中真實的光照規律"喂"給它,讓它從根本上理解光是如何在不同材質表面產生不同效果的。

**一、問題的根源:AI為什么不懂光**

要理解LiVER解決了什么問題,先要理解現有AI視頻生成工具的局限性究竟在哪里。

當前的視頻生成模型,大多是通過學習海量視頻數據來"模仿"真實世界的樣子。這個過程有點像一個從來沒有學過繪畫的人,通過觀看成千上萬幅畫作來學習畫畫。他能學到"草地通常是綠色的"、"天空通常是藍色的"這樣的規律,但他不理解"為什么晴天草地的陰影是藍紫色調的"這樣的物理原理。

這種依賴數據驅動的學習方式,導致生成的視頻往往在"表面現象"上做到了相似,卻在"物理規律"上出現了錯誤。比如,生成一段陽光明媚的室外場景時,AI可能會把金屬物體渲染成啞光質感,或者讓玻璃窗看起來沒有任何反射。更嚴重的問題是,當場景中有多個物體相互遮擋時,AI很難正確處理它們之間復雜的陰影和反射關系。

與此同時,現有工具對視頻場景的"控制能力"也十分有限。用戶往往只能通過文字描述來影響生成結果,無法精確控制攝像機從哪個角度拍攝、場景中的物體放在什么位置、光線從哪個方向照射過來。這三個要素——布局、光照、攝像機軌跡——在專業影視制作中是核制約創作自由度的核心變量,但在現有AI工具中,它們要么被混在一起無法單獨調整,要么根本沒有被建模。

LiVER的研究團隊把這個問題比作一道"解耦"難題:如何把光照、布局、攝像機這三個原本糾纏在一起的因素,清晰地分離開來,讓用戶能夠像調音臺上的推子一樣,獨立地控制每一個維度?

**二、核心思路:用3D物理渲染來"教"AI**

LiVER的解題思路,可以用一個電影特效制作的比喻來理解。

在專業的電影工業里,視覺特效團隊在制作一個充滿金屬機器人或玻璃建筑的場景時,不會直接用畫筆一筆一筆地畫出光影效果。他們的做法是:先用3D軟件搭建一個完整的三維場景,設定好每個物體的材質屬性(是金屬還是塑料?是光滑還是粗糙?),然后在場景里放置一個虛擬光源,讓計算機按照真實的物理光學規律自動計算出所有的光影效果。這個過程叫做"基于物理的渲染"(Physically-Based Rendering,簡稱PBR)。

LiVER的思路正是借鑒了這種方法。研究團隊不讓AI直接生成最終視頻,而是先讓一個"智能助手"(研究中稱之為"渲染器智能體")根據用戶的文字描述,自動搭建一個簡化的3D場景,然后用3D渲染引擎(具體使用的是開源3D軟件Blender)按照物理規律計算出光照效果,生成一套"場景代理"(Scene Proxy)圖像序列。這套圖像序列就像是電影拍攝前的分鏡頭草圖,但它包含了精確的物理光照信息。最后,再把這套物理準確的"草圖"作為輸入,引導AI視頻生成模型來產生最終的高質量視頻。

這個流程的精妙之處在于,AI視頻生成模型不需要自己去"推斷"光線應該怎么打,因為正確答案已經被物理渲染引擎算好了,并以圖像的形式直接告訴了它。AI只需要把這些光照信息與場景內容融合在一起,生成視覺上更加細膩、真實的最終畫面。

**三、場景代理:把光分解成三種"語言"**

LiVER框架中最具技術創意的部分,是它如何表達場景的光照信息。

研究團隊沒有試圖用一張圖來描述所有的光線效果,而是把光照分解成三種不同的"語言",分別對應光在不同材質表面上的不同表現方式。

第一種語言叫做"漫反射"(Diffuse),處理的是啞光、無光澤表面的光照效果。粗糙的石頭、布料、未經打磨的木頭,光線打上去會向四面八方均勻散射,沒有明顯的高光或反射。這種光照描述的是場景中最基礎的明暗關系,捕捉的是低頻的、柔和的環境光效果。

第二種語言叫做"粗糙GGX"(Rough GGX),處理的是半光滑表面的光照效果。輕微磨砂的金屬、陶瓷、部分塑料,光線打上去會產生模糊的、擴散的高光區域。這種光照描述捕捉的是中頻的寬泛反射,是很多日常物品表面效果的主要來源。

第三種語言叫做"光澤GGX"(Glossy GGX),處理的是高度光滑、鏡面般的表面的光照效果。拋光金屬、玻璃、鏡子,光線打上去會產生清晰的、尖銳的高光和環境反射。這種光照描述捕捉的是高頻的精確反射,是讓材質看起來"貴"或"精致"的關鍵。

將這三種光照圖像疊在一起,就像把一首音樂的低音、中音、高音三個聲部分別錄制成單獨的音軌,然后再混合成最終成品。每種材質對應不同聲部的組合方式不同,金屬可能低音弱、高音強,織物可能低音強、高音幾乎沒有。通過這三種"光照語言"的組合,可以精確描述幾乎所有材質表面的光照行為。

在技術實現上,這三種光照圖像被按照通道拼合在一起,形成一個9通道(每種光照3個RGB通道,共3種)的圖像序列,構成最終的"場景代理"。這個場景代理不僅包含了精確的光照信息,還包含了場景的幾何布局和攝像機運動信息,一舉解決了三個控制維度的問題。

**四、智能體如何"讀懂"你的文字并搭建場景**

從用戶輸入一段文字描述,到LiVER生成場景代理,中間經過了一個由多個AI模塊協同工作的"渲染器智能體"流程。這個過程就像從總導演、美術指導到攝影師的分工協作。

整個過程從"場景構建"開始。智能體首先像一位文學分析師一樣,仔細拆解用戶提供的文字描述,提取出其中涉及的物體類別、它們之間的空間關系(比如"長凳在樹下"、"垃圾桶在建筑旁邊"),并把這些信息組織成一個結構化的"場景圖譜"。場景圖譜中的每個節點代表一個物體,每條邊代表兩個物體之間的位置關系。

有了場景圖譜之后,智能體會從一個預先整理好的3D資產庫(基于Objaverse-XL這個包含超過1000萬個3D物體的龐大數據庫)中,為每個節點找到最合適的3D模型,然后根據場景圖譜的空間約束來擺放這些模型的位置,形成一個粗略但幾何上合理的3D場景。

接下來是"光照設置"。智能體會從用戶描述中提取與光線相關的線索,比如"溫暖的傍晚陽光"、"陰天漫射光"、"霓虹燈氛圍"等。根據這些線索,它會從Poly Haven這個高質量HDR環境貼圖庫中篩選出最匹配的全景光照圖。HDR(高動態范圍)環境貼圖就像是把整個天空和周圍環境"拍"成一張全景照片,用它來照亮場景,可以產生非常真實的環境光效果。如果庫中沒有完全匹配的貼圖,智能體還能調用專門的生成模型來臨時創建一個。

隨后是"攝像機規劃"。智能體從文字描述中識別拍攝手法的線索,比如"繞軌道拍攝"、"推拉變焦"、"升降鏡頭"等,然后根據這些線索規劃攝像機的運動軌跡。它會先確定幾個關鍵幀的攝像機位置和朝向,再通過數學插值方法生成一條時間上平滑的完整軌跡。

最后,將場景幾何、光照設置、攝像機軌跡全部輸入Blender渲染引擎,分別渲染出三種光照圖像序列,拼合成最終的場景代理,準備好喂給視頻生成模型。

**五、如何把物理信息"注入"AI視頻生成模型**

得到了場景代理之后,下一個挑戰是:如何讓它真正引導AI視頻生成模型,而不只是被模型忽視?

LiVER的基礎視頻生成模型選用的是阿里巴巴開源的Wan2.2-5B,這是一個在大量真實視頻數據上訓練的高質量視頻擴散模型,已經具備了很強的視覺質量生成能力。研究團隊在它的基礎上,額外設計了兩個輕量化的新模塊。

第一個模塊叫做"場景代理編碼器",專門負責從場景代理圖像序列中提取關鍵信息。這個編碼器由多個2D卷積神經網絡塊堆疊而成,每個塊包含卷積操作、歸一化處理和激活函數。它的工作方式是:逐幀處理場景代理圖像,把9通道的光照信息壓縮提煉成一套更緊湊的特征向量。研究團隊刻意選擇了2D卷積而非更復雜的3D卷積,這樣在保持對光照信息高度敏感的同時,計算量也更加合理。

第二個模塊叫做"代理適配器",負責把場景代理的信息與視頻生成模型的內部表示融合在一起。在技術實現上,場景代理編碼器輸出的特征,會以一種"殘差疊加"的方式加到視頻模型的潛在表示(Latent Representation,也就是視頻在模型內部的抽象編碼)上。為了保證訓練初期模型不會被新加入的信息搞亂,這個疊加操作有一個可學習的縮放權重,初始值被設為零,意味著訓練剛開始時場景代理對視頻生成完全沒有影響,隨著訓練的進行,權重逐漸增大,場景代理的影響也逐漸增強。這個設計的好處是讓模型能夠"平穩過渡",不會因為新加入的信息而遺忘之前學到的視覺質量。

**六、三階段訓練:循序漸進地"教會"模型**

設計好了框架結構,剩下的問題是:怎么訓練?

LiVER的研究團隊設計了一套三階段訓練方案,每個階段都有明確的學習目標,環環相扣。

在第一階段,研究團隊完全凍結了預訓練的視頻生成模型(即Wan2.2-5B的所有參數保持不變),只訓練新加入的場景代理編碼器和適配器模塊。這個階段持續10個訓練周期,目標是讓新加入的模塊學會如何把場景代理轉化為有效的控制信號。這就像先讓新來的助理學會如何解讀導演的分鏡腳本,而不要一開始就讓他介入到整個拍攝流程中。

在第二階段,研究團隊在繼續訓練編碼器和適配器的同時,還解凍了視頻生成模型中的LoRA層。LoRA(低秩適應)是一種高效的微調技術,它不改變模型原有的大量參數,而是在模型中插入少量額外的低秩矩陣來捕捉新的能力。這樣做既能讓視頻生成模型學會更好地響應場景代理的控制,又不會徹底破壞它原本已經很好的視覺質量。這個階段同樣持續10個訓練周期,目標是建立場景代理與視頻內容之間更精確的語義對應關系。

在第三階段,訓練策略與第二階段基本相同,但增加了一項重要變化:將真實視頻數據與合成視頻數據以1:1的比例混合訓練。合成數據來自LiVER-Syn,其中包含了動態變化的光照效果(比如光源繞場景旋轉),這些是真實拍攝的視頻數據很難大量提供的。通過混合訓練,模型能夠學會處理更多樣化的光照場景,不會因為真實數據中光照變化有限而出現能力局限。

整個訓練過程共進行了約10萬步,使用了8塊英偉達H100 GPU,總批量大小為16,學習率為0.00001,最終生成視頻的分辨率為704×1280像素。

**七、數據集:給AI準備一個"光照百科全書"**

為了訓練LiVER,研究團隊專門構建了一個名為LiVERSet的數據集,因為現有的視頻數據集幾乎都沒有附帶精確的光照、幾何、攝像機參數標注。

LiVERSet由兩個互補的部分組成。第一部分叫做LiVER-Real,收錄的是真實世界拍攝的視頻。真實視頻的好處是自然光照效果豐富、畫面質感真實,但問題是這些視頻本來沒有附帶任何3D標注。研究團隊為此開發了一套自動標注流程:首先用VGGT模型從視頻中估計每一幀的攝像機位置;然后對第一幀進行深度估計,得到場景的深度圖;接著用Grounding-DINO和SAM 2兩個模型對第一幀中的物體進行檢測和分割,提取出各個物體的二維輪廓;再通過逆投影把這些二維輪廓"還原"成粗略的3D網格模型;最后用DiffusionLight-Turbo模型從圖像中估計出場景的HDR環境貼圖,代表場景的全局光照。有了這些信息之后,再用Blender渲染出三種光照圖像序列,形成場景代理。文字描述則由Qwen 2.5-VL這個視覺語言模型自動為每個視頻生成。

第二部分叫做LiVER-Syn,是完全在計算機中合成的視頻數據集。研究團隊從Objaverse-XL中篩選出了一批具有高質量PBR材質的3D模型,通過隨機組合這些模型來生成多樣化的場景,然后從Poly Haven庫中隨機選擇HDR環境貼圖來照亮場景。為了制造動態光照效果,研究團隊讓HDR環境貼圖在視頻播放的過程中繞垂直軸旋轉,每個視頻片段的總旋轉角度在180度到240度之間隨機選取,這樣就能產生光源方向明顯變化的效果,比如太陽從場景的一側移動到另一側。攝像機位置也通過程序化方式隨機生成。

整個LiVERSet共包含約11000段視頻,每段視頻長度為81幀,分辨率為720×1280像素。其中10000段用于訓練,1000段用于評估,真實數據和合成數據各占一半。

**八、實驗驗證:和其他方法比較,誰更勝一籌**

研究團隊選取了三個具有代表性的現有方法作為比較對象。CameraCtrl是一個專注于攝像機軌跡控制的視頻生成方法,通過給視頻生成模型輸入攝像機位姿序列來控制拍攝角度。MotionCtrl是一個同時控制攝像機和物體運動的方法,通過攝像機位姿和稀疏物體軌跡來引導生成過程。VideoFrom3D是一個更接近LiVER思路的方法,通過粗略的3D幾何來引導視頻生成,它的做法是先用圖像擴散模型生成關鍵錨定幀,再用視頻擴散模型在它們之間插值過渡。

評估所用的指標覆蓋了視頻質量和控制精度兩個大類。在視頻質量方面,使用了FVD(衡量生成視頻與真實視頻在統計分布上的差異,數值越低越好)、FID(衡量每幀圖像質量,數值越低越好)和CLIP相似度(衡量生成視頻與文字描述的語義匹配程度,數值越高越好)。在控制精度方面,使用了攝像機軌跡誤差(包括絕對軌跡誤差ATE、逐步平移誤差RPEt、逐步旋轉誤差RPEr)、光照誤差(使用尺度不變均方誤差SI-MSE,衡量估計出的光照與真實光照的差距)、光照不穩定性(SI-MSE隨時間的標準差,衡量光照變化是否平穩)以及布局誤差(用mIoU衡量生成視頻中物體形狀和位置與參考視頻的匹配程度)。

在量化比較的結果中,LiVER在幾乎所有指標上都取得了優異的表現。以視頻質量為例,LiVER的FVD得分為32.56,而VideoFrom3D為36.94,CameraCtrl為48.03,MotionCtrl為63.13。FID方面,LiVER以129.56的成績優于VideoFrom3D的157.89,而CameraCtrl和MotionCtrl的FID則分別高達98.29和97.21(這兩個方法只生成16幀,和LiVER生成的完整81幀版本對比時,LiVER的對應16幀版本FID為42.32,遠低于它們)。CLIP相似度上,LiVER達到了30.97,高于所有對比方法。

在控制精度方面,LiVER的攝像機軌跡誤差(ATE=2.48,RPEt=0.71,RPEr=0.50)顯著低于VideoFrom3D(ATE=17.55,RPEt=3.85,RPEr=3.12),也低于CameraCtrl(ATE=2.15,RPEt=1.39,RPEr=1.68)。光照誤差方面,LiVER的SI-MSE為0.04,優于其他所有方法(均為0.05、0.06或0.07)。布局準確度上,LiVER的mIoU為0.87,高于VideoFrom3D的0.74和CameraCtrl的0.68。

研究團隊還專門進行了用戶調研,邀請了25名參與者對四種方法生成的視頻進行主觀評價,每人評價20組視頻,分別在視頻質量、場景控制、攝像機控制、光照控制四個維度上選出他們認為最好的方法。結果顯示,LiVER在視頻質量維度獲得83.4%的偏好率,場景控制維度獲得83.3%,攝像機控制維度獲得72.1%,光照控制維度獲得59.3%。相比之下,VideoFrom3D在攝像機控制和光照控制維度上表現相對較好(24.1%和29.0%),但仍遠低于LiVER。

**九、消融實驗:如果缺少某個關鍵步驟會怎樣**

為了驗證LiVER框架中每個關鍵設計的必要性,研究團隊做了兩組"如果去掉這個部分會怎樣"的實驗。

第一組實驗驗證的是合成數據集的重要性。研究團隊訓練了一個只用真實視頻數據(LiVER-Real)的對照模型,不加入任何合成數據。結果發現,這個模型生成的視頻光照效果幾乎是平坦均勻的,無法重現動態變化的光源效果。這個結果說明,真實世界視頻中的光照變化相對有限(大多數實景拍攝的光照條件相對穩定),而合成數據集中大幅旋轉的光源提供了真實數據無法覆蓋的光照多樣性,對模型學會控制光照是必不可少的。

第二組實驗驗證的是三階段訓練策略的重要性。研究團隊訓練了一個從頭開始、端到端訓練所有模塊的對照模型,沒有經過分階段的逐步引入。結果發現,這個模型生成的視頻出現了嚴重的問題:視頻幾乎是靜止的,物體幾乎不動,場景控制能力也大幅下降。這個結果說明,同時學習"如何生成高質量視頻"和"如何響應場景代理控制"這兩件事,對于模型來說優化難度過高,很容易陷入局部最優。分階段訓練讓模型能夠先鞏固視頻生成能力,再逐步學習場景控制,從而避免了災難性遺忘的問題。

**十、LiVER能做什么,真的有用嗎**

除了比較性能數字,LiVER在實際應用中展示出了幾個令人印象深刻的能力。

在光照控制方面,通過簡單地旋轉HDR環境貼圖,可以生成一段光源方向持續變化的視頻,比如太陽從場景左側緩緩移動到右側,隨著光源方向的變化,金屬表面的高光位置跟著移動,陰影方向也跟著轉變,整個過程自然流暢,場景的幾何形狀和材質屬性始終保持穩定不變。這種"光照變化、其余一切不動"的精確控制能力,在現有視頻生成工具中是幾乎做不到的。

在布局和攝像機控制方面,通過場景代理中包含的幾何信息,LiVER能夠比只依賴2D圖像的對照方法更精確地控制場景中物體的相對位置,以及攝像機的運動軌跡。這對于需要特定攝影構圖效果的應用場景(比如廣告拍攝或電影分鏡制作)尤其有價值。

在靈活編輯方面,LiVER設計了一個開放的工作流程:智能體自動生成的初始3D場景并不是一個固定不變的黑盒子,而是可以被用戶導入到標準3D軟件中進行二次編輯的。用戶可以在Blender中添加或刪除物體、調整光照方向和顏色、設計全新的攝像機運動軌跡,然后重新渲染出新的場景代理,再送給LiVER生成新的視頻。這種"AI自動起草、人類精細調整"的混合工作流程,可以兼顧效率和創作自由度。

**說到底,LiVER意味著什么**

歸根結底,LiVER做的事情是把影視特效工業中已經成熟使用了幾十年的物理渲染技術,與最新的AI視頻生成技術結合在了一起。物理渲染引擎負責保證光照的物理正確性,AI視頻生成模型負責填充細節、提升畫質、讓生成內容看起來更加逼真自然。兩者各司其職,互相補足。

這對于想要制作高質量視頻內容的普通人來說,意味著什么呢?以前,要制作一段有精確光照控制的視頻,你需要掌握Blender、Maya這樣的專業3D軟件,還要懂得如何設置材質、光源和渲染參數,學習曲線非常陡峭。有了LiVER這樣的工具,用戶只需要用自然語言描述你想要的場景和光照效果,系統會自動完成大部分繁瑣的3D工作,最終給你一段物理上準確、視覺上精美的視頻。

當然,這篇研究也坦誠地指出了當前的局限性:LiVER使用的3D場景重建比較粗略,場景中的精細幾何細節和材質信息,仍然需要依賴AI根據文字描述來補充推斷。這意味著最終視頻的某些幾何細節(比如復雜的建筑結構或精細的植物葉片)可能與用戶期望不完全一致。研究團隊表示,未來會通過改進場景重建的精度和優化文字提示的解讀能力來進一步提升效果。

這項研究的完整細節可以通過arXiv編號2604.07966查閱,如果你對AI視頻生成、計算機圖形學或影視制作技術有進一步的好奇心,不妨去看看原始論文,里面有更多技術細節的數學推導和可視化比較結果。

Q&A

Q1:LiVER生成的視頻和普通AI視頻生成工具有什么本質區別?

A:普通AI視頻生成工具主要靠學習大量視頻數據來模仿真實世界的樣子,對光照的處理是"猜測"而非"計算",所以經常出現光影不一致的問題。LiVER的根本區別在于它引入了物理渲染引擎,先用Blender按照真實光學規律計算出正確的光照效果,生成包含漫反射、粗糙GGX和光澤GGX三種光照圖像的"場景代理",再把這些物理準確的信息作為引導輸入AI視頻生成模型。用戶還能單獨控制光照方向、物體布局和攝像機軌跡三個參數,而不會互相干擾。

Q2:LiVERSet數據集和普通視頻數據集有什么不同?

A:普通視頻數據集只有視頻本身,沒有附帶物理標注。LiVERSet的特別之處在于它為每段視頻都配備了完整的物理注釋,包括場景幾何(3D網格模型)、全局光照(HDR環境貼圖)、攝像機位姿和文字描述。它由兩部分組成:LiVER-Real是從真實視頻中通過自動化流程提取這些標注的;LiVER-Syn是完全在計算機中合成的,包含了旋轉光源等真實拍攝難以實現的動態光照場景。整個數據集共約11000段視頻,分辨率720×1280,每段81幀。

Q3:LiVER的三階段訓練為什么不能直接一步到位?

A:如果同時訓練所有模塊,模型需要在"生成高質量視頻"和"響應場景代理控制信號"這兩個目標之間同時取得進展,這個優化難度太高,實驗證明會導致視頻幾乎靜止不動、場景控制能力嚴重退化。三階段訓練的邏輯是:第一階段凍結視頻生成模型,只訓練新加入的場景代理編碼器和適配器,讓它們先學會"讀懂"場景代理;第二階段加入LoRA微調,讓視頻生成模型學會響應控制;第三階段混入合成數據,擴展光照多樣性。循序漸進地引入新能力,避免了災難性遺忘問題。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
北青:亞足聯認定馬寧亞冠精英聯賽1/4決賽執法無錯漏判

北青:亞足聯認定馬寧亞冠精英聯賽1/4決賽執法無錯漏判

懂球帝
2026-04-21 20:08:02
萊斯特城降入英甲!隊史首次連降2級!10年前曾奪英超恍然如夢

萊斯特城降入英甲!隊史首次連降2級!10年前曾奪英超恍然如夢

球叮足球
2026-04-22 09:05:19
蘇州一對情侶,談了7年,女子提了18次分手,分手后在街頭痛哭!

蘇州一對情侶,談了7年,女子提了18次分手,分手后在街頭痛哭!

川渝視覺
2026-04-17 22:13:14
泰山隊刮青春風暴,用4名05后新星 劉騏瑋有王大雷影子 2老將讓位

泰山隊刮青春風暴,用4名05后新星 劉騏瑋有王大雷影子 2老將讓位

替補席看球
2026-04-22 08:42:45
留給印度的時間不多,莫迪警告:再不放行化肥,14億人飯碗不保

留給印度的時間不多,莫迪警告:再不放行化肥,14億人飯碗不保

王新喜
2026-04-04 18:02:01
婆婆帶人住進來的第一晚,我就開始悄悄準備,三個月后我拎包離開

婆婆帶人住進來的第一晚,我就開始悄悄準備,三個月后我拎包離開

老紅點評社
2026-04-13 11:19:12
賺錢的第一性原理,就是不干活。

賺錢的第一性原理,就是不干活。

流蘇晚晴
2026-04-20 20:08:05
保價2000元機蓋運輸中損壞,德邦理賠只肯賠1300元;車主:我不要錢了,你賠我一個機蓋總可以吧

保價2000元機蓋運輸中損壞,德邦理賠只肯賠1300元;車主:我不要錢了,你賠我一個機蓋總可以吧

大風新聞
2026-04-20 19:12:04
上一次還是15年威少!得分王卻無緣MVP前三,東契奇何時才能拿?

上一次還是15年威少!得分王卻無緣MVP前三,東契奇何時才能拿?

無術不學
2026-04-22 09:18:49
出大事了,鮑威爾拒絕辭職后,特朗普動真格,參議院下場硬剛總統

出大事了,鮑威爾拒絕辭職后,特朗普動真格,參議院下場硬剛總統

井普椿的獨白
2026-04-21 17:05:03
戰略伙伴“留在紙面”,高層往來停止多年,李在明訪印意在“關系重啟”

戰略伙伴“留在紙面”,高層往來停止多年,李在明訪印意在“關系重啟”

環球網資訊
2026-04-21 06:51:25
樹倒猢猻散!武亮直播哭紅眼眶,20余天的人事動蕩,讓他心力憔悴

樹倒猢猻散!武亮直播哭紅眼眶,20余天的人事動蕩,讓他心力憔悴

火山詩話
2026-04-20 06:31:57
再戰就是決戰 稱可瞬間夷平27個軍事基地 數千枚庫存導彈啟封待命

再戰就是決戰 稱可瞬間夷平27個軍事基地 數千枚庫存導彈啟封待命

聚峰軍評
2026-04-22 07:55:19
荷蘭高官演上了:我們好脆弱,中國與美國“不相上下”

荷蘭高官演上了:我們好脆弱,中國與美國“不相上下”

觀察者網
2026-04-22 09:05:16
67歲遲志強現狀:出獄37年后,定居黑龍江,兒子工作令人淚目

67歲遲志強現狀:出獄37年后,定居黑龍江,兒子工作令人淚目

以茶帶書
2026-04-01 12:20:29
打起來了,以軍不宣而戰,美深夜開火,無人機墜毀后又有兩國反水

打起來了,以軍不宣而戰,美深夜開火,無人機墜毀后又有兩國反水

快看張同學
2026-04-20 09:41:17
19歲男子KTV上班,三名女孩來喝酒,男子下體過度使用成永久創傷

19歲男子KTV上班,三名女孩來喝酒,男子下體過度使用成永久創傷

丫頭舫
2025-09-22 20:39:00
眼角塌陷,滿臉疲態,都51歲中老年了還談戀愛?鐘漢良放過觀眾吧

眼角塌陷,滿臉疲態,都51歲中老年了還談戀愛?鐘漢良放過觀眾吧

得得電影
2026-04-19 11:42:40
紐約這一天,劉玉玲真空上陣,鄧文迪大變臉,安妮海瑟薇艷壓全場

紐約這一天,劉玉玲真空上陣,鄧文迪大變臉,安妮海瑟薇艷壓全場

冷紫葉
2026-04-21 17:08:36
功虧一簣!范爭一遭墨菲絕殺無緣世錦賽16強,中國小將遭遇兩連敗

功虧一簣!范爭一遭墨菲絕殺無緣世錦賽16強,中國小將遭遇兩連敗

世界體壇觀察家
2026-04-22 06:50:47
2026-04-22 10:03:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業世界
8088文章數 562關注度
往期回顧 全部

科技要聞

凌晨突發!ChatGPT Images 2.0發布

頭條要聞

牛彈琴:伊朗發出讓人毛骨悚然的警告 玩的就是心跳

頭條要聞

牛彈琴:伊朗發出讓人毛骨悚然的警告 玩的就是心跳

體育要聞

一到NBA季后賽,四屆DPOY就成了主角

娛樂要聞

宋承炫曬寶寶B超照,宣布老婆懷孕

財經要聞

伊朗拒絕出席 特朗普宣布延長停火期限

汽車要聞

全新坦克700正式上市 售價42.8萬-50.8萬元

態度原創

游戲
時尚
手機
家居
軍事航空

突發!微軟官宣XGP大幅降價 COD不再首發訂閱

頂流復工,已判若兩人

手機要聞

摩托羅拉Razr 2026(Razr 70)折疊手機4月29日美國發布

家居要聞

詩意光影 窺見自然之境

軍事要聞

特朗普宣布延長停火 伊朗表態

無障礙瀏覽 進入關懷版