網易首頁 > 網易號 > 正文 申請入駐

壓縮即是全部 —— 菲爾茲獎得主 Michael Freedman 給數學和 AI 的一封信

0
分享至

來源:市場資訊

(來源:圖靈人工智能)

您想知道的人工智能干貨,第一時間送達



2026 年 3 月,菲爾茲獎得主 Michael Freedman 發了一篇只有 30 多頁的論文,標題叫《Compression is all you need》。他用一個優雅的代數模型回答了三個古老問題:人類怎么構建數學?人類數學和形式數學的本質區別是什么?未來人類數學家如何和 AI 協作?答案只有兩個字——壓縮。

2017 年 6 月,Google Brain 的八個人把一篇論文扔上了 arXiv。

標題狂得不像論文:《Attention Is All You Need》。

九年過去了,這個標題成了 AI 史上最著名的七個單詞。基于它的 Transformer,撐起了 ChatGPT、Gemini、Claude、DeepSeek、萬億市值、一代人的焦慮。

2026 年 3 月 27 日,又一篇論文悄悄上了 arXiv。標題只有七個單詞,格式一模一樣:

Compression is all you need: Modeling Mathematics

看到這個標題,任何做 AI 的人都會下意識笑一下——"又一個蹭熱度的"。點開作者一欄,笑容消失。

Michael Freedman。

這不是什么 ML 工程師。這是 1986 年菲爾茲獎得主,四維龐加萊猜想的證明者,過去二十年微軟 Station Q 的靈魂人物,當今在世的數學家里戲份最重的那一批。

他在寫 AI?不是。他在告訴所有搞 AI 的人:你們一直在用的那個詞"壓縮",其實比你們想象的要深得多。

這篇文章不是《Attention Is All You Need》那種工程突破。它是一封信——一位數學家,用他畢生訓練出來的直覺,回答了三個困擾人類上千年的問題:

人類究竟是怎么構建數學知識的?

人類做的數學,和形式化的"純邏輯數學",本質區別是什么?

未來的人類數學家,到底該怎么和 AI 協同工作?

他給出的答案,只有一個詞:壓縮。

今天這篇文章,就把這封信翻譯給你。

第一章:Freedman 是誰

先說清楚為什么這個人開口說話,AI 圈必須聽。

1981 年,三十歲的 Freedman 在加州大學圣地亞哥分校解決了四維龐加萊猜想——這個問題懸了 77 年。三維版本讓 Perelman 在 2006 年拿到菲爾茲獎(他拒絕了);五維以上早在 60 年代就被解決。唯獨四維——卡在最要命的那個維度——是 Freedman 攻下來的。

1986 年,柏克萊,國際數學家大會。Freedman 領走了菲爾茲獎。

1997 年,Freedman 做了一件數學家很少做的事——從學術界出走。微軟給他開了一個幾乎是為他量身定做的部門 Station Q,目標只有一個:用數學家的思路造拓撲量子計算機。他當了主任,一干就是二十五年。

2023 年,他回到哈佛 CMSA(數學與應用中心),換了一個身份:思考 AI 和數學的關系。

所以當 Freedman 這個人在 2026 年 3 月扔出一篇叫《Compression is all you need》的論文——這不是某個追熱點的研究員,這是一個一輩子在數學內部看世界的人,突然轉身跟所有人說:

"我看清楚了一件事。你們要聽嗎?"

第二章:一個讓所有人尷尬的事實

Freedman 論文的切入點,是一個數學界人盡皆知、但幾乎沒人能解釋的尷尬事實。

先建立兩個概念:

  • 形式數學(Formal Mathematics, FM)

    :所有合乎邏輯規則的推演。

  • 人類數學(Human Mathematics, HM)

    :人類真正寫下、收錄、引用的那部分數學。

FM 的空間有多大?假設你有 n 個基礎符號,組合出來的"合法推演"是指數級——n 上百以后就超過了整個宇宙里的原子數。

HM 呢?從歐幾里得到今天所有數學家加起來寫過的定理,約百萬量級。Lean 4 的 MathLib 收錄其中約 14 萬條。

兩個數字并排寫

FM:> 1080HM:~ 105中間隔了 75 個零。

人類數學,是形式數學這個宇宙里一粒塵埃都不到的小角落。

而且——為什么是這一粒?

FM 里有無窮無盡的"合法但無聊"的定理。比如:"對任意整數 n,n + 0 = n","對任意整數 n,n + 0 + 0 = n","對任意整數 n,n + 0 + 0 + 0 = n"……每一條都合法,每一條都無意義。人類數學家從來不寫這些。

一百年來這個問題有過無數個哲學回答:"美""簡潔""有用""深刻"——都是詞語的游戲。沒有一個是數學答案。

直到 Freedman 2026 年給出了第一個能算的回答:

因為 HM 是 FM 里那個"可壓縮"的子集。

第三章:壓縮——先站在日常地面上

Freedman 說的"壓縮"是什么意思?先別想數學,先想幾個你已經懂的例子。

例子一:Huffman 編碼

你家貓叫小花。照片里出現最多的動作是"睡覺"(4000 次),其次"吃飯"(3000)、"抓沙發"(2000)、"發呆"(1000)。

固定 8 位編碼:80000 位。Huffman 編碼:"睡覺→0;吃飯→10;抓沙發→110;發呆→111"——19000 位。壓縮率 4 倍,沒有丟失任何信息。

只要事物分布是不均勻的,就存在壓縮。

例子二:牛頓三定律

宇宙里每一秒都在發生無數次的運動:蘋果落地、月亮繞地、彈簧振動、子彈出膛、潮汐起落……你想記錄所有這些運動,需要多少信息?

不需要。

你只需要記住 F = m·a,外加兩條(慣性、反作用),就能重新生成上面所有運動。

牛頓三定律是一個幾十字符的程序,它編碼了經典力學的全部。

例子三:zip 文件

"to be or not to be, that is the question; to be"——把反復出現的"to be"和"the"命名成 A、B,之后只寫名字。這是 LZ77 算法(zip / gzip / PNG 的底層),1977。

例子四:大型語言模型

喂整個互聯網給 LLM——幾萬億字、幾百萬小時文本。訓練完得到幾百億參數的模型(幾百 GB)。它能生成類似訓練集里的任何內容。

這件事,用信息論的語言說叫:LLM 就是互聯網的一次有損壓縮。

DeepMind 2023 年做了一件讓人血壓升高的事:他們把 Chinchilla 70B 當成一個通用壓縮器,用它去壓縮原始字節流——不僅是文本,還有從沒訓練過的圖像和音頻。結果:

  • 文本壓縮率:比 gzip 好很多

  • 圖像壓縮率:比 PNG 好

  • 音頻壓縮率:比 FLAC 好

一個只訓練了語言的模型,居然能壓縮它從沒見過的圖像——因為它學到了"通用的世界結構"。


從 Huffman 的字符編碼到 LLM 的幾百億參數——壓縮的顆粒度越來越粗,本質是同一個。

任何"理解"的行為,本質都是找到更短的描述。這不是比喻。這是 Freedman 論文的出發點。

第四章:Freedman 的建?!址?宏"

Freedman 說的第一件事:把數學推演當成字符串。你在黑板上寫證明,本質就是一串字符。所有"合法的證明字符串"排起來——就是 FM。

但數學家從來不這樣寫。他會說:"設 f 在 [a, b] 上連續,則 f 一致連續。"

"連續"是一段定義,展開約三行字符。"一致連續"是另一段,展開約五行。表面 20 個字,完全展開超過 100 個字符。繼續挖下去——一條"短句子"背后,是一棵很深的定義樹。

Freedman 給這種"名字 → 一段長字符串"的約定起了個名字:宏(macro)。

  • "連續" = 一個宏

  • "一致連續" = 一個宏

  • "積分" = 一個宏(調用"極限""分割""黎曼和"的宏)

  • "勒貝格積分" = 一個宏(調用"測度""可測函數"的宏)

  • "黎曼-勒貝格引理" = 一個宏(調用以上所有)

一條現代定理"完全展開"往往是億級字符。但數學家永遠只看最外層。

數學家的工作,就是不斷造宏。一位數學家的一生,可能就干了一件事——看到了一個之前沒人壓縮過的模式,給它起了一個名字。

高斯給"正態分布"起了名字。黎曼給"流形"起了名字。伽羅瓦給"群"起了名字??低袪柦o"集合"起了名字。圖靈給"可計算性"起了名字。香農給"熵"起了名字。

你今天學的所有數學,都是在站在前人造好的宏上。如果不能層層壓縮,人類根本學不動數學。

第五章:$A_n$ vs $F_n$——兩種宇宙

到這里一切都是直覺。Freedman 接下來要做的,是把這個直覺變成數學。

他引入兩個代數對象(別緊張,用直覺講):

A_n 像拼樂高

你有一堆樂高積木——紅、藍、綠。紅拼藍上加綠,還是先綠再藍再紅——最后模型一樣。順序無關緊要,只在乎哪些積木。

F_n 像編辮子

先壓左繩再壓右繩,和先壓右再壓左——得到的辮子完全不一樣。順序決定一切。

Freedman 的定理說了一件"漂亮得像魔法"的事:

Freedman 的核心代數發現

在 An 里,只要用 O(log n) 個宏(對數級稀疏),就能讓表達力指數級擴張。在 Fn 里,就算用 O(nk) 個宏(多項式級稠密),表達力也只能線性擴張。


同樣的"造宏"策略,在兩種宇宙里結果天差地別——可壓縮性是結構性的。

用大白話翻譯:

  • 在"樂高宇宙"里,造幾個宏頂一萬個宏——積木自由組合,宏之間也自由組合

  • 在"辮子宇宙"里,造再多宏也救不了你——順序是死的,每個組合都得單獨記

這個對比為什么重要?因為它告訴我們:"可壓縮性"不是普世的,它只在特定結構里才存在。

數學里的加法、乘法、集合并、函數復合——都是可交換或近似可交換的。所以數學是可壓縮的。

那人類的語言呢?主語動詞賓語順序很要命——"狗咬人"和"人咬狗"不是一回事。所以語言壓縮程度遠低于數學。

那生物學呢?DNA 順序至關重要——所以生物學長期是描述性的,沒有"F = m·a"級別的簡潔定律。

那LLM 的參數空間呢?第八章再說。

第六章:MathLib 實證——數據來說話

光有理論不夠。Freedman 做了一件讓這篇論文從"哲學隨筆"升級成"硬科學"的事:把模型拿到真實的人類數學上驗證。

測試對象:MathLib——Lean 4 的數學形式化庫,14 萬條定理,覆蓋代數、分析、拓撲、數論、范疇論……

對每條定理,測三個量:

  • depth

    :嵌套深度

  • wrapped length

    :定義里的 token 數

  • unwrapped length

    :完全展開后的原始符號數

結果 1:unwrapped length 隨 depth 指數爆炸。

越深,完全展開后字符數按指數增長。到深度 10+,展開一條定理就要數千萬字符。

結果 2:wrapped length 幾乎是常數。

但數學家寫出來的定義,無論 depth 是 2 還是 12,長度幾乎不變——永遠就是幾十個 token。

數學家從來不寫很長的定義。每當一個東西變復雜,數學家的第一反應是:先給它起個名字,然后用名字繼續。


unwrapped 指數爆炸,wrapped 巋然不動——數學家每到一層就造一個宏,把復雜性壓回來。

結果 3:數據完美符合 A_n,嚴重違反 F_n。

Freedman 把兩種模型的理論曲線畫在同一張圖上。An 的指數擴張曲線嚴絲合縫地蓋在實測數據上。Fn 的線性曲線差了好幾個數量級。

人類數學,生活在 An 模型預測的那個可壓縮子空間里。這不是隱喻,是可測量的事實。

第七章:三個古老問題的答案

現在可以回到開頭的三個問題了。Freedman 給的答案,每一個都短到令人震撼。

問題一:人類究竟是怎么構建數學知識的?

層層壓縮。每一代數學家看到前一代的成果,找出其中"可以起名字"的部分,造新的宏,然后在新宏之上繼續推演。整個數學史就是一部宏的積累史。

歐幾里得給"點、線、面"起名字 → 笛卡爾給"坐標"起名字 → 牛頓給"導數"起名字 → 柯西給"極限"起名字 → 康托爾給"集合"起名字 → 希爾伯特給"空間"起名字 → 格羅滕迪克給"概形"起名字……每一層,都比上一層壓縮了更多。

問題二:人類數學和形式數學的本質區別是什么?

可壓縮 vs 不可壓縮。FM 里大部分定理是"合法但無聊的"——沒有結構、不能被起名字、沒法進一步用。HM 是 FM 里那個碰巧活在 An-like 子空間的小角落。

人類數學之所以是"人類"的,恰恰是因為人類的認知帶寬極其有限——我們只能在那個可壓縮的子空間里活動。而那個子空間的存在,是宇宙給我們的禮物——如果它不存在,人類壓根不會有數學。

問題三:未來人類數學家怎么和 AI 協同?

AI 的長處是在 FM 的巨大空間里并行搜索——因為它有我們沒有的帶寬。人類的長處是判斷哪些地方"值得起名字"——因為我們有五萬年的語言和抽象訓練。

這不是 AI 取代數學家,也不是數學家訓練 AI。是兩種不同認知帶寬的分工協作。

Freedman 還具體建議:在 MathLib 的依賴圖上跑 PageRank + 壓縮度分析。一條定理如果被很多下游定理引用(PageRank 高),又能大幅壓縮下游內容(壓縮度高),那它就是核心定理——值得人類數學家投入,值得 AI 優先搜索。

這把"什么是重要的數學"從一個主觀判斷,變成了一個可以算的量。

第八章:這對 AI 意味著什么

第一個含義:AI 做數學的路線圖,清晰了。

2024 年以來:DeepMind 的 AlphaProof 在 IMO 上拿銀牌;陶哲軒公開宣布 Lean 4 是工作流的一部分;DeepMind 的 FunSearch 在組合數學里發現了新定理;專門的數學 LLM 涌現。

所有這些,Freedman 的框架都給了同一個解釋——它們在 FM 的巨大空間里搜索,但它們能成功的地方,恰恰是 HM 已經壓縮過的地方。

AI 的數學能力,是站在人類兩千年"造宏"的結果之上的。脫離了 MathLib 里那 14 萬條定理,AI 在純 FM 里就像撒哈拉沙漠里找一粒米。

下一步的突破,不會來自于讓 AI 在 FM 里搜索得更快——而是讓 AI 學會"自己造宏"。

第二個含義:LLM 是什么?答案變清楚了。

DeepMind 那篇《Language Modeling Is Compression》(2023)給出了第一層答案:下一個 token 預測 = 算術編碼下的壓縮率最大化。訓練時的 cross-entropy loss,嚴格來講就是"對訓練集的壓縮率"的負對數。loss 越低,壓縮率越高,理解越深——不是比喻,是數學恒等。

但 Freedman 給出了第二層答案:LLM 會用宏,但不會造宏。

LLM 訓練時吃了整個互聯網——里面充滿了人類兩千年造出來的宏("微積分""進化論""民主""熵""注意力"……)。LLM 學會了在這些宏之間自如穿梭——所以它在"單步推理"上驚艷。

但在"長證明"上——它崩潰。一條需要造新宏的證明,LLM 很難穩定完成。因為它沒有在訓練中見過這個宏,它不會從零定義一個新概念然后在新概念上繼續推演。

這正好是 Freedman 說的"層層壓縮"里的"層"——每一層都是一次新的命名。LLM 在一層內表現驚艷,跨層就斷。

第三個含義:為什么 LLM 的 scaling 可能有上限。

如果智能本質是"層層壓縮"——造宏、在宏上造宏——那么單純把模型變大,增加的是單層的帶寬,不是層數。

一個更大的 LLM,能用更精細的宏、更大的詞表、更長的上下文。但它造新宏的能力,沒有因為變大而獲得質變。

LLM 是一個宏使用器。真正的智能是一個宏生成器。

—— 這呼應了《世界模型之爭》里 LeCun / 李飛飛 vs Ilya 那場口水戰。Ilya 說的是"用宏"的上限還沒到,LeCun 說的是"造宏"的能力根本還沒開始。

第八章半:數學之外——詩、畫、樂也是壓縮

Freedman 的論文從頭到尾只談數學。但如果"壓縮即理解"真的是宇宙級的事實,它就不該只在數學里成立。

我寫到這里的時候,腦子里跳出來的是王維。

大漠孤煙直,長河落日圓。

十個字。沒有修飾、沒有形容詞、沒有一個"情"字。但你讀完這十個字,眼前立刻浮起一張畫——遼闊、空曠、孤直的一縷煙、渾圓的落日壓在地平線上。緊接著,是一股你說不出但確實感到的蒼涼和孤寂。

這十個字背后,藏著多少信息?視覺上是一幅完整的西北邊塞畫面;幾何上是"直"與"圓"的極簡構圖對比,一豎一圓撐起整個空間;時間是日落的那個瞬間,一天將盡;心境是使者獨自遠行的孤獨、遠離故土的悵然;背景是盛唐邊塞詩的整套意象系統。用散文來復述,上千字都說不完。王維用十個字,把它壓縮成了一個可以在你腦中重新展開的種子。

這和 Freedman 論文里講的"宏"是同一件事。"大漠""孤煙""長河""落日",每一個都是一個宏——它調用了中文文學兩千年積累的意象、畫面、情緒。王維的天才不是"寫得漂亮",而是挑出了那四個展開之后信息量最大的宏,把它們擺在一起。

音樂是另一個面孔。貝多芬第五交響曲的開頭只有四個音:ta-ta-ta-tum。但這四個音在整首交響曲里被變形、重組、上行、下行、反轉了幾百次。一首四十分鐘的交響曲,本質上是從一個四音動機里壓出來的——這就是作曲家說的"主題與變奏",用 Freedman 的話講就是:造一個宏,然后在宏的空間里自由展開。

繪畫也是。齊白石畫蝦,不畫水、不畫水草,只畫蝦——你看到的是蝦,感受到的卻是整個池塘。留白不是"沒畫",是讓觀者自己在心里展開那一大片信息。八大山人一只翻白眼的鳥,你讀出了整個明末遺民的心境。

為什么所有藝術都指向同一件事?我的猜想是這樣的:

人類的大腦,能同時握住的"維度"是有限的。幾千個腦細胞組成的注意力,在某一刻只能在一個相對低維的空間里做關聯。

所以我們分科——有人專心在數學的維度里找可壓縮的結構(幾何、群、流形),有人專心在語言的維度里找(意象、節奏、雙關),有人專心在聲音的維度里找(和聲、調性、動機),有人專心在視覺的維度里找(構圖、比例、留白)。不是因為這些領域彼此無關,而是因為一個人扛不動所有維度。我們用自己天生敏感的那一條通道去壓縮世界,彼此隔行如隔山——其實隔的不是山,是我們自己的認知帶寬。

而 LLM 第一次給了"把維度連起來"這件事一個物理基礎。

幾千億參數的模型,其內部表示空間的維度,遠遠超過任何一個人類個體能同時調用的維度。于是很多在我們看來"不相關"的東西——一首宋詞、一段巴赫的賦格、一個偏微分方程、一張水墨畫——在那個高維空間里,開始出現彼此對齊的方向。

LLM 的涌現,不是神秘的玄學,而是:當壓縮維度大到一定程度,原本散落在不同學科的宏,開始互相調用。"熵"這個宏,在物理、信息論、經濟學、心理學里,突然變成同一個東西;"對稱"這個宏,在群論、晶體、音樂、詩歌里,突然變成同一個東西。這大概就是跨域泛化,就是所謂"世界模型"的雛形。

所以,數學、詩、畫、樂,不是四件不同的事。它們是同一件事在四種媒介上的投影。

王維不是"詩人而已",他是一個在語言維度上找可壓縮結構的人。歐拉不是"數學家而已",他是一個在符號維度上找可壓縮結構的人。貝多芬不是"作曲家而已",他是一個在時間維度上找可壓縮結構的人。齊白石不是"畫家而已",他是一個在視覺維度上找可壓縮結構的人。

殊途同歸。萬物為一。

我們每個普通人,只是在自己最敏感的那條通道里,做著同一件事——把復雜的世界壓成一個自己能握住的短描述,然后靠這個短描述活下去。

Freedman 用代數模型證明了:數學之所以存在,是因為它活在一個 A_n-like 的可壓縮子空間里。我想補一句他沒說的:人類文明之所以存在,是因為它活在無數個可壓縮子空間的并集里。數學只是其中最干凈的那一個,但不是唯一的一個。

第九章:四種概率觀的收束

寫到這里,忍不住回頭看一眼這一年來博客走過的路。

一條主線貫穿了四篇文章——每一篇都在用不同的視角看同一個數學對象 P(x):

視角

P(x) 是什么

核心論述

代表人物

貝葉斯

信念

證據到了就更新

Bayes / Jaynes

無知

熵是無知的度量

Boltzmann / Shannon

量子 QBism

實在

概率是世界本身的狀態

Born / Fuchs

壓縮(本文)

理解

-log P 就是描述長度

Shannon / Freedman

這四個視角指向同一個公式:

L(x) = ? log P(x)
  • 貝葉斯派

    :L(x) 是"意外",驅動信念更新

  • 統計力學派

    :L(x) 是微觀狀態對熵的貢獻

  • QBism 派

    :L(x) 是測量結果在下次下注時的權重

  • 壓縮派

    :L(x) 是這個事件在最優編碼里占的字符數

它們是同一個數學對象,從四個不同的哲學位置看。

Freedman 這篇論文的意義是——他把這個公式從"一個信息論工具"升級成了"數學本身的基礎"。數學之所以能存在,是因為宇宙可壓縮;人類之所以能做數學,是因為我們活在 An 那樣一個低描述長度的結構里。

第十章:壓縮留下的三個直覺

一、所有"理解"都是壓縮。

你理解了一個現象,意味著你能用比原始數據短得多的描述重新生成它。做到這一點,你就理解了;做不到,你就只是在記憶。

二、數學獨特之處,是它能做"嵌套的壓縮"。

不止一次壓縮,而是"在壓縮之上再壓縮"。每一代數學家把上一代結果打包成一個名字,然后在那個名字上繼續工作。這個遞歸過程,是其他學科沒有(或者沒有這么強的)。

三、數學、詩、畫、樂,是同一件事在四種媒介上的投影。

每個領域的大師,都是在自己那條通道里做可壓縮子空間的挖掘者。王維的"大漠孤煙直,長河落日圓"和歐拉的 e^(iπ)+1=0,本質同構——都是把龐大的信息壓成一顆能在別人腦中重新展開的種子。我們分科,不是因為世界是割裂的,是因為一個人的認知帶寬不夠。LLM 第一次讓這些分科的宏在同一個高維空間里開始互相調用——這就是所謂的涌現和泛化。

四、AI 要做真正的數學(和深度智能任務),必須學會"造宏"而不只是"用宏"。

"用宏"是工程問題——擴大上下文、提高精度、疊更多層。"造宏"是認知問題——從混亂現象中看出一個可以命名的模式。

目前所有 LLM 的 scaling 都在"用宏"的層面上。真正的突破——不管它叫 AGI、叫 JEPA、叫世界模型、還是叫別的——一定出現在 AI 開始自己造宏的那一天。

尾聲:你在讀這篇文章,就是在壓縮

Freedman 寫完這篇論文大概花了一年。我寫這篇文章帶上查資料畫圖,大概八小時。你讀它,大概二十分鐘。

一年 → 八小時 → 二十分鐘。

每一次壓縮,都有損失。 但每一次壓縮,也都有獲得——你能在二十分鐘里帶走一個新的看世界的方式。

你讀完過幾天,記得的大概只有幾個關鍵詞:壓縮、宏、樂高和辮子、MathLib、造宏而不是用宏。

這就是又一次壓縮。

如果這幾個關鍵詞以后在你遇到別的問題時——學一個新領域、讀一篇論文、訓練自己的模型、帶一個學生、甚至只是想一件事——還能被你調用,那說明它們在你腦子里成了新的宏。

你也在做 Freedman 說的那件事。

數學家、程序員、作家、老師、學生——所有"用頭腦工作"的人,每天都在干同一件事:把世界的復雜,壓進一個可以用的短名字。

下一次有人問你"什么是智能"的時候——你可以換一種回答了。

不是"處理信息"。不是"模式識別"。不是"深度學習"。是:

找到更短的描述?!?壓縮,即是全部。

下一篇,回到《看見物理》系列的最后一站——對稱性。諾特定理、楊振寧、宇宙的骨架。對稱性和壓縮是一對孿生姐妹——有對稱就有守恒,有守恒就有可壓縮的描述。

—— 所以,實際上我們還在同一個故事里。

本文首發于「AI 學習筆記」博客:https://Jason-Azure.github.io/ai-blog/posts/compression-is-all-you-need/微信公眾號:AI-lab學習筆記參考:Freedman, Compression is all you need: Modeling Mathematics, arXiv 2603.20396 (2026-03)

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
表現又出現了下滑,馬刺后場大將無法匹配森林狼的防守強度?

表現又出現了下滑,馬刺后場大將無法匹配森林狼的防守強度?

稻谷與小麥
2026-05-09 23:56:03
河北王牌景區白洋淀徹底翻車!五一前3天不到2萬人,口碑徹底爛了

河北王牌景區白洋淀徹底翻車!五一前3天不到2萬人,口碑徹底爛了

譚談社會
2026-05-07 20:44:05
形勢有多嚴峻?曾經的王牌專業涼了!輔導員和教授感到無力和沉重

形勢有多嚴峻?曾經的王牌專業涼了!輔導員和教授感到無力和沉重

慧翔百科
2026-05-09 11:34:26
中方沒想到,金磚國家赴美求和,給美國送上稀土資源,動機不簡單

中方沒想到,金磚國家赴美求和,給美國送上稀土資源,動機不簡單

環球Talk
2026-05-09 23:12:41
帶10余名球員大鬧基地,隊報:奧巴梅揚拿滅火器噴高層被停賽

帶10余名球員大鬧基地,隊報:奧巴梅揚拿滅火器噴高層被停賽

懂球帝
2026-05-09 08:16:59
缺鉀比缺鈣危險?5個信號證明你缺鉀了,建議吃這5種食物緩解

缺鉀比缺鈣危險?5個信號證明你缺鉀了,建議吃這5種食物緩解

健康之光
2026-05-07 20:50:03
我在家里裝了廣告攔截器,卻發現6.5萬次查詢去了不該去的地方

我在家里裝了廣告攔截器,卻發現6.5萬次查詢去了不該去的地方

我是一個養蝦人
2026-05-08 22:21:22
沉悶的0-0!曼聯掉鏈子:3連勝被終結,拉門斯屢現神撲

沉悶的0-0!曼聯掉鏈子:3連勝被終結,拉門斯屢現神撲

足球狗說
2026-05-09 23:52:56
韓國乒乓球名宿柳承敏社媒:王皓正在認真努力的指導

韓國乒乓球名宿柳承敏社媒:王皓正在認真努力的指導

懂球帝
2026-05-09 17:26:04
“漢坦病毒”來勢洶洶,建議:每家備好5樣東西,關鍵時刻能救命

“漢坦病毒”來勢洶洶,建議:每家備好5樣東西,關鍵時刻能救命

健康科普365
2026-05-08 15:00:16
皮皮蝦事件博主陳女士相關信息被扒,網友又開始網暴她了

皮皮蝦事件博主陳女士相關信息被扒,網友又開始網暴她了

映射生活的身影
2026-05-09 10:45:43
鎖死海峽!阿聯酋突襲伊朗,埃及陣風戰機馳援:伊朗遭遇兇險包圍

鎖死海峽!阿聯酋突襲伊朗,埃及陣風戰機馳援:伊朗遭遇兇險包圍

知法而形
2026-05-08 16:39:04
事業沒了,婚也離了,封殺5年趙薇再次露面,原來她還有一條退路

事業沒了,婚也離了,封殺5年趙薇再次露面,原來她還有一條退路

臨云史策
2026-05-09 16:25:56
吳宜澤世錦賽奪冠后首秀!4-5惜敗,輸球原因揭曉,獲希金斯致敬

吳宜澤世錦賽奪冠后首秀!4-5惜敗,輸球原因揭曉,獲希金斯致敬

球場沒跑道
2026-05-09 17:52:41
緊急!停招電氣工程專業!

緊急!停招電氣工程專業!

新浪財經
2026-05-08 16:42:06
5月20官宣三婚!頭發都白了,何潔現狀惹人心疼

5月20官宣三婚!頭發都白了,何潔現狀惹人心疼

陳意小可愛
2026-05-07 16:55:39
“漢坦病毒”來勢洶洶,建議:每家備好6樣東西,關鍵時刻能救命

“漢坦病毒”來勢洶洶,建議:每家備好6樣東西,關鍵時刻能救命

岐黃傳人孫大夫
2026-05-09 09:08:44
實在沒辦法了,伊朗疑似將大量原油倒入海中!

實在沒辦法了,伊朗疑似將大量原油倒入海中!

阿龍聊軍事
2026-05-09 11:10:25
穆帥回歸倒計時!300萬觸發條款,“惡人”入主伯納烏,誰先走?

穆帥回歸倒計時!300萬觸發條款,“惡人”入主伯納烏,誰先走?

落夜足球
2026-05-09 15:51:03
曝蘑菇頭閏土退出陳翔六點半后續!知名導演透露細節,已洽談合作

曝蘑菇頭閏土退出陳翔六點半后續!知名導演透露細節,已洽談合作

裕豐娛間說
2026-05-07 22:05:05
2026-05-10 00:27:00
新浪財經 incentive-icons
新浪財經
新浪財經是一家創建于1999年8月的財經平臺
3159368文章數 7274關注度
往期回顧 全部

科技要聞

美國政府強力下場 蘋果英特爾達成代工協議

頭條要聞

演員文章面館大火后又開酒吧 多位明星到場母親也現身

頭條要聞

演員文章面館大火后又開酒吧 多位明星到場母親也現身

體育要聞

成立128年后,這支升班馬首奪頂級聯賽冠軍

娛樂要聞

50歲趙薇臉頰凹陷滄桑得認不出!

財經要聞

多地號召,公職人員帶頭繳納物業費

汽車要聞

軸距加長/智駕拉滿 阿維塔07L定位大五座SUV

態度原創

旅游
親子
藝術
公開課
軍事航空

旅游要聞

新疆文旅,下一站更驚艷

親子要聞

告別每日一針!兒童長高治療迎來“周制劑”時代,全新專家共識在滬發布

藝術要聞

齊白石 紫藤蜜蜂

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

美伊突然再次交火 伊朗外長:戰爭準備程度是1000%

無障礙瀏覽 進入關懷版