網易首頁 > 網易號 > 正文 申請入駐

黃仁勛CES最新預言:2026年,變化來得更加猛烈!未來所有應用,將建在AI之上

0
分享至


來源:新智元

【導讀】CES巨幕上,老黃的PPT已成中國AI的「封神榜」。DeepSeek與Kimi位列C位之時,算力新時代已至。

萬眾矚目的2026 CES科技盛宴上,一張PPT瞬間燃爆AI圈。

老黃主旨演講上,中國大模型Kimi K2、DeepSeek V3.2,以及Qwen赫然上屏,位列全球開源大模型前列,性能正在逼近閉源模型。

CES之夜無顯卡!老黃引爆Rubin時代,6顆芯狂飆5倍算力

天空一聲巨響,全新版本的「皮衣老黃」閃亮登場。


在本次CES演講中最為激動人心的瞬間,就是英偉達全新一代芯片架構——Vera Rubin正式登場!

全球AI算力告急?老黃霸氣回應:Vera Rubin已全面投產。

這是新一代的算力怪獸,也是對上一代霸主Blackwell的降維打擊——

  • 推理Token成本直接暴降10倍,算力性能狂飆5倍。

  • 就連訓練MoE模型所需的GPU數量,也直接減少了4倍。

曾經,Blackwell終結了Hopper;如今,Rubin親手埋葬了Blackwell。


全程近兩小時演講,老黃提及重點包括——

  • 下一代Rubin平臺亮相:六顆芯片,推理狂飆十倍

  • 自動駕駛端到端模型:AlphaMayo會思考、自主推理,全程0接管上路

  • 物理AI全家桶開源:基礎模型、框架


玩家徹夜難眠:CES 2026,沒有顯卡

至于游戲玩家?

對不起,這次真的沒有新顯卡。


英偉達在X上的一紙公告,徹底擊碎了「攢機黨」最后的幻想:CES 2026將沒有任何新GPU發布。

這意味著,英偉達自2021年以來連續五年在CES發布新硬件的傳統,就此終結。

傳聞已久的RTX 50 Super系列,受困于GDDR7顯存的「產能地獄」,大概率已經胎死腹中。

Rubin炸裂登場

6顆芯片,10倍推理,AI超算變工廠

去年10月,老黃曾預計:未來五年,將有3到4萬億美元砸向AI基礎設施。

Vera Rubin的大規模投產,可謂生逢其時。

如果說Blackwell打破了單卡性能的極限,那么Rubin解決的則是系統規;的難題。

從此,算力將像電力一樣廉價,AI的大爆發已近在咫尺!


2024年,Vera Rubin架構首次亮相。

等了兩年,現在它終于正式投產了!

Blackwell架構,從此將退出歷史舞臺。

演講現場,老黃告訴大家:AI所需的計算量急劇飆升,怎么辦?不用怕,Vera Rubin,將解決我們面臨的根本性挑戰!

這套為萬億參數模型的海量推理而生的平臺,會徹底讓算力低成本、規;⒐I化生產。

Rubin架構,以天文學家Vera Florence Cooper Rubin而命名。


可以說,Rubin是英偉達第一次把CPU、GPU、網絡、存儲、安全,當成一個整體來設計。

核心思路就是:不再「堆卡」,而是把整個數據中心變成一臺AI超算。

整個Rubin平臺,由這6個關鍵組件構成。



其中,Rubin GPU是整個平臺的核心。它搭載第三代Transformer引擎,為AI推理提供50 PFLOPS的NVFP4算力。

之所以能達到Blackwell GPU性能的5倍,是因為它的NVFP4張量核心,后者能分析Transformer各層的計算特性,動態調整數據精度與計算路徑。


另外,該架構還引入一顆全新的Vera CPU,專為智能體推理而設計。

它采用88個英偉達自研Olympus核心,完全兼容Armv9.2,并具備超快的NVLink-C2C 連接,能實現176個線程的全性能執行,I/O帶寬和能效比直接翻倍。


當我們在Agentic AI或長期任務中啟用全新的工作流時,會對KV cache造成很大壓力。

為了解決存儲和互聯的瓶頸,Rubin架構特別改進了Bluefield和NVLink系統。它通過外部方式和計算設備相連,這樣就能更高效地擴展整體存儲池的規模。

BlueField-4 DPU是一個數據處理單元,它能卸載網絡、存儲和安全任務,還能管理AI的上下文記憶系統。


NVLink 6中,單芯片就能提供每秒400Gb的交換能力。每塊GPU提供3.6TB/s 的帶寬,而Rubin NVL72機架提供260TB/s,帶寬超過整個互聯網。

通過3.6 TB/s的帶寬和網絡內計算能力,它能讓Rubin中的72個GPU像一個超級GPU一樣協同工作,直接把推理成本打至1/7。


現場,老黃給我們展示了Vera Rubin的托盤。小小的托盤上集成了2顆Vera CPU、4顆Rubin GPU、1顆BlueField-4 DPU和8顆ConnectX-9網卡,整個計算單元算力達到100 PetaFLOPS。



Rubin的目標,是解決MoE和萬億參數模型的訓練成本,它做到了嗎?顯然,成果是顯著的。

訓練、推理效率暴增

測試結果顯示,Rubin架構訓練模型時的運行速度,直接達到上一代Blackwell架構的3.5倍(35 petaflops),推理任務的速度則高達5倍,最高可達50 petaflops!

同時,它的HBM4內存帶寬提升至22 TB/s,達到2.8倍,單GPU的NVLink互連帶寬則翻倍到3.6 TB/s。


在超大規模MoE訓練中,Rubin所需的GPU數量相比Blackwell可減少至1/4,同時整體能耗顯著下降。

這背后,就有三大功臣。

NVLink 6,讓GPU間互聯帶寬再次大幅提升,多卡訓練不再被通信拖慢;Vera CPU與Rubin GPU的協同調度,可以減少「GPU等數據」的空轉時間;而ConnectX-9與Spectrum-6的深度協同,也讓大模型訓練不會再被集群規模限制。



從此,訓練萬億模型,不再是「堆錢」,只會是工程問題。

訓練解決了,那推理呢?

結果顯示,在推理側,Rubin平臺單位token的推理效率提升最高可達10倍!同樣的模型和響應延遲,算力成本可以直接下降到原來的1/10。

所以,模型可以跑得起百萬token的長下文,企業級AI應用也可以部署了。



存儲瓶頸解決

如上文所言,讓AI模型多跑一會的關鍵挑戰,就在于上下文數據。


大量KV Cache該如何處理?英偉達推出了由BlueField-4驅動的推理上下文內存存儲平臺。

這個平臺在GPU內存和傳統存儲之間創建了「第三層」,直接讓每秒處理的 token數提升高達5倍。


DGX Super POD

本次CES上,英偉達還推出了新一代DGX SuperPOD。


它把多個裝有72個GPU的Rubin NVL72連接起來,形成了更大的AI計算集群。

在這次的DGX SuperPOD中,共有8個Rubin NVL72機架,相當于有576個GPU。


NVIDIA Vera Rubin NVL72 提供統一、安全的系統,集成了72 塊Rubin GPU、36塊Vera CPU、NVLink 6、ConnectX-9 SuperNICs和BlueField-4 DPUs

這樣,SuperPOD就可以處理數千個Agentic AI智能體,以及數百萬token上下文。

可以說,英偉達一次性解決了數百個GPU相連、管理存儲的問題,直接給我們提供了開箱即用的AI基礎設施。



第三代機密計算平臺

更為重要的是,Rubin是首個支持第三代機密計算(Confidential Computing)的AI超算平臺。

模型參數、推理數據、用戶請求都會被全鏈路加密,即使的云廠商,也無法直接訪問明文數據。

這就解決了「敢不敢把核心AI放到云上」的問題,對于金融、醫療、政府、企業私有模型都非常重要。

這些大廠,第一批用上Rubin

老黃介紹說,Rubin會由AWS、Microsoft Azure、Google Cloud、Meta、OpenAI這些頭部廠商先部署。

而到2026年下半年,Rubin平臺就會進入大規模商用階段。

所以,下一代GPT、Gemini、Claude模型,大概率都會運行在Rubin架構上。


全程0接管,自動駕駛AI「會思考」

如何教會AI物理學的基礎事實?

英偉達給出的答案是,把算力變成高質量的數據(Compute is Data)。

在這一體系中,「世界基礎模型」Cosmos扮演著重要的角色。

交通模擬器輸出的信號,被送入Cosmos再生成合理、運動上連貫的環繞視頻,讓AI學習其中真實世界的行為模式。


如今,Cosmos已被全球下載數百萬次,成為物理AI時代的重要基礎設施。在英偉達,內部也在用其做自動駕駛研究。

在此基礎上,今天,英偉達正式發布了「端到端」自動駕駛AI——AlphaMayo。

它是一個會思考、會推理的自動駕駛AI。從攝像頭輸入到車輛執行動作,全流程由模型完成。


AlphaMayo獨特之處,在于它具備了顯式推理能力。

系統不僅執行轉向、制動、加速動作,還會給出即將采取行動的理由,以及對應的形式軌跡。


自動駕駛最大挑戰,來自于「長尾場景」,幾乎不可能覆蓋所有國家、所有道路的數據。

AlphaMayo的策略是將復雜場景,拆解為多個熟悉的物理與交通子問題,通過推理將罕見情況分解為常見組合,完成應對。

在演示中,車輛可以在全程0接管狀態下,完成路徑規劃與行駛,順利抵達目的地。


在自動駕駛領域,英偉達投入持續了八年,如今第一次把AI「五層架構」完整跑通。

由下到上:實體本身、芯片體系、模型層、基礎設施層、應用層,構成了一套完全貫通的AI系統棧。

AlphaMayo構成模型層,梅賽德斯-奔馳汽車構成應用層。

這一次,老黃還官宣了,NVIDIA DRIVE AV軟件首次搭載全新梅賽德斯-奔馳 CLA,提供L2級端到端駕駛。


更重磅的是,Alpamayo家族全部開源。這一整套方法論,并不只適用于汽車,同樣適用于機器人、機械臂等各類系統。

全家桶開源,機器人ChatGPT時刻

下一階段,機器人將以各種形態進入現實世界,前提是,它們首先在Omniverse中學會如何行動。

現場,老黃又召喚來了機器人瓦力登臺配合演出,這里他講了一句意味深長的話:

未來的系統,都誕生在計算機里。


英偉達正把自身能力嵌入到,計算密度最高、最復雜的工業體系統,就像此前與Palantir、ServiceNow的集成一樣。

如今,這一模式正被復制到了工業仿真與設計領域。

在具身智能領域,老黃直接扔下了一套針對物理AI(Physical AI)的「開源全家桶」——模型、框架及基礎設施,應有盡有。

機器人的ChatGPT時刻已經到來!


目前,所有新模型均已上線Hugging Face,拿來即用:

  • NVIDIA Cosmos Transfer/Predict 2.5,這是完全可定制的世界模型,專門在虛擬世界里生成符合物理規律的數據,訓練機器人的大腦。

  • NVIDIA Cosmos Reason 2,讓機器像人一樣「看懂」世界并進行邏輯推理。

  • NVIDIA Isaac GR00T N1.6,專為人形機器人打造,解鎖全身控制,讓機器人不再四肢僵硬。

為了解決機器人開發中「各自為戰」的痛點,英偉達發布了兩大神器:

  • Isaac Lab-Arena:這是GitHub上的開源框架,連接了主流基準測試,確保機器人在進廠打工前,已經在虛擬世界里經過了千錘百煉。

  • NVIDIA OSMO:無論是在工作站還是混合云,它都能統一調度數據生成、模型訓練和測試,大幅縮短開發周期。

機器人技術已是Hugging Face上增長最快的領域。英偉達這次不僅是提供模型,更是深度集成:

  • LeRobot集成:Isaac和GR00T技術直接通過LeRobot框架即可調用。

  • 硬件互通:Hugging Face的開源機器人Reachy 2和Reachy Mini現已完美適配英偉達的Jetson平臺,語音、視覺、大模型能力瞬間拉滿。

軟件強還不夠,硬件必須硬。如今,全新的Jetson T4000模組,直接將Blackwell架構帶到了邊緣端:

  • 算力高達1200 FP4 TFLOPS,是上一代的4倍。

  • 1000臺起訂單價僅1999美元。

  • 70瓦功耗,簡直是為能源受限的自主設備量身定做。


老黃震撼預言

未來所有應用,建在AI之上

每隔10-15年,計算產業就會重來一次。

演講伊始,老黃還回顧了計算產業過去數十年的演進路徑——

從大型機到CP,到互聯網、云計算,再到移動計算,每一次平臺級躍遷,都會催生一整套全新的應用生態,軟件開發方式也隨之重構。

而這一次,變化來得更加猛烈。

他提到,當前產業正同時經歷兩次平臺級轉變:一是從傳統計算走向AI,另一個是整個軟件、硬件棧的底層重塑。

AI正成為全新的「底座」,應用開始建立在AI之上。同時,軟件開發與運行方式、應用生成方式發生了根本性變化。

這一切,共同推動了「加速計算+AI」對整個計算體系的重塑,五個層級正在同時被重新發明。


2022年ChatGPT爆發后,AI才真正走進大眾視野。一年之后,推理模型首次登場,引入了「測試時Scaling」這一概念。

模型不僅在訓練階段學習,還在推理階段實時計算和推演。預訓練、RL、推理這些階段,都需要機器龐大的計算資源,也同時推動模型能力持續提升。

2024年,另一項突破開始顯現,直到2025年,智能體系統(Agentic AI)才迅速擴散開來。

老黃再次提及,在英偉達內部,像Cursor這樣的Agentic工具已深刻改變了軟件的開發方式。

智能體AI之后,下一個前沿便是物理AI(Physical AI),理解自然規律和物理法則,為AI打開了全新疆域。

除此之外,過去一年,另一個具有決定性意義的變化來自「開源模型」。

DeepSeek R1的出現,作為首批開源推理模型之一,給行業帶起來巨大震動。

但不可否認的是,其仍比前沿模型落后六個月。每隔半年,就有新模型涌現,而且越來越智能。



英偉達,正引領著開源模型的生態,遍布多個領域。而且,在多個榜單上取得了亮眼的成績。

最具代表性的包括多模態Nemotron 3、世界模型Cosmos、機器人模型GR00T、蛋白預測模型OpenFold 3......



老黃現場表示,以上一切成果,都為構建AI智能體服務,這是真正突破性的發展領域。

當前AI模型已變得極其強大,智能體的推理能力為各類應用開啟了大門。


令老黃深感震驚的是,首次在Perplexity見證了其同時調用多個模型——AI在推理任何環節,直接調用最頂尖的模型。

這背后本質上是「多云協同」,同時還具備了混合云特性。

老黃明確地表示,這就是未來AI應用的基本形態。或者說,因為未來應用都構建在AI之上,這就是未來應用的基礎框架。

一方面,AI可以被深度定制。另一方面,系統始終保持最前沿!付ㄖ+前沿」能力在同一架構中同時存在。


在軟件世界之外,更大挑戰來自于現實世界。為此,物理AI需要三臺計算機——

  • 第一臺計算機:用于訓練模型

  • 第二臺計算機:用于推理,運行咋i汽車、機器人、工廠等邊緣環境

  • 第三臺計算機:專門用于仿真、模擬

老黃提到,仿真是整個體系的核心,只有在可控的數字環境中,AI才能反復嘗試、評估行為后果,并逐步建立對世界的理解。


彩蛋

演講最后還有一個幕后花絮,DGX Station臺式AI超算將在2026年春季上線。

屆時,英偉達還將同步推出更多針對GB300系統的實戰手冊(Playbooks)。


如果說DGX Spark是開發者的入門首選,那么DGX Station就是一臺放在你辦公桌上的微型數據中心:

  • 搭載GB300 Grace Blackwell Ultra超級芯片。

  • 配備高達775GB的FP4精度一致性內存(Coherent Memory)。

  • 擁有Petaflop級AI算力,支持在本地運行高達1萬億(1T)參數的超大規模模型。

得益于強大的硬件基礎,DGX Station實測威力驚人:

  • LLM預訓練速度高達250,000 Token/秒

  • 支持對數百萬數據點進行聚類和大型可視化。

從DeepSeek R1的開源震動,到Agentic AI的全面爆發,計算產業正在經歷一場前所未有的重塑。

在這個只有玩家落淚的早上,一個由物理AI驅動的全新世界,正在Vera Rubin的轟鳴聲中,加速向我們走來。

參考資料:HYZ

https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer

https://www.nvidia.com/en-gb/data-center/vera-rubin-nvl72/

https://blogs.nvidia.com/blog/dgx-superpod-rubin/

https://www.nvidia.com/en-us/events/ces/

https://youtu.be/0NBILspM4c4

老黃開年演講「含華量」爆表!直接拿DeepSeek、Kimi驗貨下一代芯片

這一刻,是屬于中國AI的高光時刻。

另外,OpenAI的GPT-OSS和老黃自家的Nemotron,也做了標注。


而且,DeepSeek-R1、Qwen3 和 Kimi K2 代表著MoE路線下頂級規模的嘗試,僅需激活少量參數,大幅減少計算量和HBM顯存帶寬的壓力。


在下一代Rubin架構亮相的核心環節上,老黃還選用了DeepSeek和Kimi K2 Thinking來秀性能。

在Rubin暴力加成下,Kimi K2 Thinking推理吞吐量直接飆了10倍。更夸張的是,token成本暴降到原來的1/10。


這種「指數級」的降本增效,等于宣告了:AI推理即將進入真正的「平價時代」。

另外,在計算需求暴漲這頁PPT上,480B的Qwen3和1TB的Kimi K2成為代表性模型,驗證了參數規模每年以十倍量級scaling。


不得不說,老黃整場發布會上,中國AI模型的含量超標了。

推理狂飆十倍

中國模型成老黃「御用」AI?

無獨有偶,英偉達去年12月的一篇博客中,也將DeepSeek R1和Kimi K2 Thinking作為評判性能的標桿。

實測顯示,Kimi K2 Thinking在GB200 NVL72上性能可以暴增10倍。


另外,在SemiAnalysis InferenceMax測試中,DeepSeek-R1將每百萬token的成本降低10倍以上。包括Mistral Large 3在內同樣獲得了十倍加速。

這意味著,復雜的「思考型」MoE部署到日常應用,成為了現實。



如今,隨便拎出一款前沿模型,只要深入其內部結構,便會發現MoE(混合專家)成為了主流的選擇。

據統計,自2025年以來,超60%開源AI采用了MoE架構,從2023年初,這一架構推動LLM智能水平提升近70倍。

此外,在權威機構Artificial Analysis(AA)排行榜上,最智能的TOP 10開源模型,也全都用的是MoE結構。

如此巨大規模的MoE,單GPU必然無法部署,英偉達GB200 NVL72卻能破解這一難題。


DeepSeek R1和Kimi K2 Thinking實測結果,恰恰證明了英偉達Blackwell超算性能的強大所在。

如今,中國大模型閃耀全球舞臺,它們令人驚嘆的表現,開啟了AI推理高效的新時代。


開源AI扛把子,震驚歪果仁

去年底,Anthropic發布了一項針對全球16個前沿模型的嚴苛行為基準測試。

在這一眾頂尖高手中,DeepSeek與Kimi不僅是唯二入局的中國面孔,更交出了驚艷的答卷——

Kimi K2 Thinking憑借極低的被誤導率,一舉摘得「表現最佳的非美國模型」桂冠。


注:得分越低性能越強,越不容易被誤導

這種技術實力也迅速轉化為國際影響力和落地應用。

從「硅谷風投教父」Marc Andreessen的公開盛贊,到OpenAI前CTO的新產品Thinker上月官宣接入Kimi K2 Thinking,中國AI的硬實力正在被全球核心圈層接納。



權威評測進一步印證了這一趨勢。

在知名AI大佬Nathan Lambert與Florian Brand聯合發布的「2025年度開源模型回顧」中,DeepSeek、Qwen和Kimi強勢包攬Top 3。


隨后,Lambert更在專文中深入分析,高度評價了中國開源AI所具備的獨特優勢。


1. 開源模型的「唯快不破」

盡管最強閉源模型與開源之間仍存代差,但中國實驗室正在以驚人的速度發布模型,大幅壓縮了這一差距。

在技術飛速迭代的當下,「更早發布」本身就是一種巨大的先發優勢。

2. 始于「榜」,終于「體驗」

中國模型在基準測試上的表現愈發生猛,但更關鍵的是從「分高」到「好用」的轉變。

我們見證了Qwen的進化:最初以「沖榜」聞名,如今已成為名副其實的優質模型。

順著這一思路,K2 Thinking在后訓練階段原生采用4bit精度,顯然是為了更高效地支持長序列RL擴展,使其更勝任實際的服務任務。

3. 中國力量的品牌崛起

年初,外國用戶可能叫不出任何一家中國AI實驗室的名字;如今,DeepSeek、Qwen和Kimi已成為東方技術實力的代表。

它們各有高光時刻和獨特優勢。重要的是,這份名單還在不斷變長,中國AI正在世界舞臺占據一席之地。

4. 突破:海量工具調用與穿插思考

Kimi K2 Thinking支持「數百步穩定工具調用」引發熱議。

雖然這在o3、Grok 4等閉源模型中已成標配(RL訓練中的自然涌現),但這通過開源模型實現尚屬首批,這對托管服務商的精準支持能力提出了極高要求。

此外,是「交錯思考」(Interleaved thinking)——即模型在調用工具的間隙進行思考。

這是繼Claude之后,強調 agentic 能力的模型都在跟進的新趨勢,標志著模型邏輯鏈條的進一步成熟。

5. 倒逼美國閉源巨頭

開源的激增讓美國閉源實驗室倍感壓力——僅僅依靠基準測試分數已無法解釋「為什么付費更好」了。

相比之下,中國模型或許在收入上暫未占優,但在全球市場的「心智份額」上,正在切走越來越大的一塊蛋糕。

回看CES 2026這場演講,老黃直接把「開源」講成了全場最硬核的主線。

中國開源AI的表現足以令世界驚嘆,隨著更多開發者和企業擁抱這些模型,AI應用的全面爆發指日可待。

參考資料:

https://blogs.nvidia.com/blog/mixture-of-experts-frontier-models/

https://www.interconnects.ai/p/kimi-k2-thinking-what-it-means

為偉大思想而生!

AI+時代,互聯網思想(wanging0123),

第一必讀自媒體

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
禁止全部中國外交官入境,不讓兩岸統一,這個國家比美國還囂張?

禁止全部中國外交官入境,不讓兩岸統一,這個國家比美國還囂張?

點燃好奇心
2026-04-29 01:17:56
高爾夫女神:不是在打球,是在和自己對話

高爾夫女神:不是在打球,是在和自己對話

疾跑的小蝸牛
2026-04-28 22:53:37
印度制造的成功,證明蘋果對任何國家的制造業都是無可替代的!

印度制造的成功,證明蘋果對任何國家的制造業都是無可替代的!

柏銘銳談
2026-04-26 20:23:49
薪資專家:太陽隊今年夏天可以4年1.952億續約杰倫-格林

薪資專家:太陽隊今年夏天可以4年1.952億續約杰倫-格林

懂球帝
2026-04-28 16:35:24
我們絕不能中計,特朗普正在賭,賭中國不敢強扣美國運臺軍火船!

我們絕不能中計,特朗普正在賭,賭中國不敢強扣美國運臺軍火船!

南山塔的姑娘
2026-04-28 01:21:28
驚掉下巴!39 歲鄭欣宜暴瘦現身,整張臉瘦脫形,差點沒認出來

驚掉下巴!39 歲鄭欣宜暴瘦現身,整張臉瘦脫形,差點沒認出來

橙星文娛
2026-04-28 09:29:00
活塞隊最應為1-3落后魔術隊而負責,這險些葬送了他們60勝的賽季

活塞隊最應為1-3落后魔術隊而負責,這險些葬送了他們60勝的賽季

好火子
2026-04-29 04:03:56
下課!曝張慶鵬無緣率隊進季后賽將卸任北控主帥 僅執教一季

下課!曝張慶鵬無緣率隊進季后賽將卸任北控主帥 僅執教一季

醉臥浮生
2026-04-28 21:15:10
重磅!“六年一學位”放寬!海淀義務教育入學政策出爐

重磅!“六年一學位”放寬!海淀義務教育入學政策出爐

京城教育圈
2026-04-28 16:39:24
1死2傷!一自建房安裝晾衣桿引發觸電事故,詳情公布

1死2傷!一自建房安裝晾衣桿引發觸電事故,詳情公布

黃河新聞網呂梁
2026-04-28 14:59:02
徹底看走眼!開拓者送走楊瀚森遭批,錯失考沃德+首輪簽縮水

徹底看走眼!開拓者送走楊瀚森遭批,錯失考沃德+首輪簽縮水

寶哥精彩賽事
2026-04-29 01:36:51
《牧馬人》劇組進駐山丹軍馬場,朱時茂叢珊在山丹車站的合影

《牧馬人》劇組進駐山丹軍馬場,朱時茂叢珊在山丹車站的合影

隴史薈王文元
2026-04-27 08:49:09
遼寧險勝山東拿賽點,莫蘭德付豪靠邊站,趙繼偉封神

遼寧險勝山東拿賽點,莫蘭德付豪靠邊站,趙繼偉封神

youyou喜歡你
2026-04-29 00:04:27
事關中小學春秋假!河北最新發布

事關中小學春秋假!河北最新發布

魯中晨報
2026-04-27 21:56:12
海外被奉為核心,國內卻無緣國家隊!中國女排遺珠真的太可惜

海外被奉為核心,國內卻無緣國家隊!中國女排遺珠真的太可惜

金毛愛女排
2026-04-29 00:00:04
發現即擊斃!美伊交戰驟變,伊朗王子遭紅漆潑面,海峽徹底封死

發現即擊斃!美伊交戰驟變,伊朗王子遭紅漆潑面,海峽徹底封死

準備好了嗎
2026-04-29 01:57:32
夏洛特公主長相絕了!有戴妃的甜美,凱特的凌厲,也有女王的霸氣

夏洛特公主長相絕了!有戴妃的甜美,凱特的凌厲,也有女王的霸氣

小魚愛魚樂
2026-04-28 09:28:11
不看巴黎對陣拜仁的歐冠焦點戰,瓜迪奧拉選擇現場觀戰英甲

不看巴黎對陣拜仁的歐冠焦點戰,瓜迪奧拉選擇現場觀戰英甲

懂球帝
2026-04-29 04:12:10
來真的了?外媒發現:055當著日本航母的面,發射了鷹擊20!

來真的了?外媒發現:055當著日本航母的面,發射了鷹擊20!

小莜讀史
2026-04-26 23:23:12
生理旺盛的女性,大多有這3個特征,超準!

生理旺盛的女性,大多有這3個特征,超準!

皓皓情感說
2026-04-25 19:09:10
2026-04-29 06:28:49
互聯網思想 incentive-icons
互聯網思想
AI時代,互聯網思想觀察
2434文章數 16907關注度
往期回顧 全部

科技要聞

10億周活目標落空!傳OpenAI爆發內部分歧

頭條要聞

美國:對35個伊朗相關實體及個人實施制裁

頭條要聞

美國:對35個伊朗相關實體及個人實施制裁

體育要聞

魔術黑八活塞,一步之遙?!

娛樂要聞

蔡卓妍官宣結婚,老公比她小10歲

財經要聞

中央政治局會議定調,八大看點速覽!

汽車要聞

拒絕瘋狂套娃!現代艾尼氪金星長在未來審美點上

態度原創

本地
游戲
家居
藝術
公開課

本地新聞

用青花瓷的方式,打開西溪濕地

這不爽翻了?曝PS6或能穩穩運行60幀+光追的游戲畫面

家居要聞

江景風格 流動的秩序

藝術要聞

趙樸初:比風水厲害100倍的宇宙定律

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版