網易首頁 > 網易號 > 正文 申請入駐

對話科學家馬驍騰:DeepSeek在一些技術上至少領先半年

0
分享至


當外界帶著挑剔的目光投向DeepSeek V4,并和上次V3架構帶來的全球轟動對照時,一個極易忽略的細節是,華為昇騰芯片第一次支撐起了萬億參數級前沿模型的訓練。這可能改變國內算力格局。

“國內第一梯隊的模型廠商,預訓練已經部分可以用昇騰替換英偉達了,后訓練還沒到那個程度。”馬驍騰告訴我們。

過去兩年,模型廠商的能力提升幾乎完全受限于團隊能拿到多少張英偉達的A100或H800卡。沒有算力,再好的算法也是紙上談兵。

也正因此,Mind Lab首席科學家、清華大學自動化系博士馬驍騰和他的團隊一直在等待DeepSeek V4的發布。Mind Lab 是專注于后訓練的Neo Lab,基于DeepSeek架構模型和Qwen架構模型做后訓練。因為要拆解每一款主流新模型,他也和DeepSeek、智譜、Kimi 等廠商的研發高層保持著密切的聯系。

DeepSeek V4發布的同一時段,Mind Lab也和國產芯片廠商展開了合作。

不過,現在國產芯片在后訓練階段暫時無法平替英偉達,后訓練時,模型需要頻繁地在“訓練”和“推理”之間高速切換,對芯片的訓推一致性和極限響應速度要求更高。馬驍騰指出,目前國產卡的生態和算子適配還不夠成熟。現階段可以先用國產的推理卡來承接后訓練中的部分推理任務,訓練環節暫時還在依賴英偉達。

盡管網上已有許多關于開發人員、創業者對DeepSeek V4的解讀,但像馬驍騰這樣身處一線、又保持第三方視角的解讀并不多。

馬驍騰看完技術報告的一大感受是,DeepSeek的野心很大,這種野心體現在它沒有專注于榜單的追高,也沒有像其他模型廠商做局部、單點突破,DeepSeek一直想做架構等全棧的原創突破。

DeepSeek V4發布后,編程能力略顯平庸,被認為沒有甩開智譜 GLM-5.1和Kimi-2.6,甚至在某些測試中只能勉強打平手。

馬驍騰解釋稱,如果DeepSeek真要死磕編程,完全可以把性能推到業界頂尖水準,但代價必然是犧牲掉在通用任務上的泛化性。DeepSeek V4更強調對通用世界知識和日常寫作能力的提升——這類任務恰恰是最難啃的骨頭,因為它們不像解數學題、寫代碼那樣有明確的標準答案,無法通過強化學習直接優化。

“這恰恰說明DeepSeek野心很大,它不愿只做一個編程很強的專用工具”。馬驍騰說,DeepSeek這次更新的核心就是長文本能力,這對其他大廠可以說是碾壓級的。

他還分享了V4跳票背后的一些技術真相,比如V4有一套極其獨創的容器技術DSec,速度極快,且具備快照功能。在訓練時能隨時給整個系統狀態“拍一張照片”,一旦后續方向走偏,就能閃回重來。這種工程靈活度,他目前還沒在國內第二家公司見過,“DeepSeek在技術上領先了至少半年”。

當 V4 正攪動新一輪牌局之際,我們和馬驍騰聊了兩小時,以下是和他的對話:

01

DeepSeek的野心很大

白鯨實驗室:你第一次聽說DeepSeek V4要發布是什么時候?

馬驍騰:大概是去年12月左右,DeepSeek V4 計劃在春節前后發,我們當時做了充分的準備,春節就沒放假,等著研究V4。后來確定發布計劃是大年三十,但還是撲了空。據我所知,臨到發布當天,團隊內部對模型仍不滿意,就不發了。最后我們轉而研究智譜的GLM-5和 Kimi 2.5。

白鯨實驗室:你對 V4 拖到4月份發是有預期的嗎?還是覺得它應該更早發出來?

馬驍騰:DeepSeek的節奏不好說,大家都很期待這次V4的發布。畢竟上次V3.1和V3.2都是小版本更新,沒有像 R1 那樣帶來巨大突破。不過,這次看到V4,我個人感覺非常驚艷,由衷欽佩DeepSeek團隊。

白鯨實驗室:你最關注的是什么?

馬驍騰:其實有幾點。第一,1.6T 參數的開源模型,是目前國內最大的開源模型。我們Mind Lab的研究定位就是用更大的模型、更少的算力,DeepSeek再次印證了往scaling走的趨勢。

第二,更長的上下文窗口。他們這次更新的核心就是長文本能力,這對其他大廠可以說是碾壓級的。

第三,工程上做了很多水下功夫,非,嵥榈荜P鍵,外行可能感知不大。比如OPD* 的大規模應用,雖然業界在合成數據時會用類似思路來整合不同專家模型的長處,但DeepSeek是第一個在萬億參數級別把它完整跑通的。這背后需要解決很多工程難題,包括對底層計算核心(Kernel)進行極致的定制化改寫、on-disk KV cache*(磁盤KV緩存)等,單獨拆開每一件都足夠一個團隊攻堅,而他們居然在同一個公司里全做到了。

*注:OPD :On-Policy Distillation,是一種用于在大模型 agent 訓練階段中高效融合專家網絡的訓練方法,也是過去一年后訓練的新范式。

*磁盤KV緩存,是把模型運行時產生的KV緩存,從昂貴的顯存搬到了更廉價的硬盤上做持久化存儲,對于提升代碼倉庫等長文檔的閱讀能力來說很重要。

白鯨實驗室:你是說相對于他們的團隊人數來說,這很難得?

馬驍騰:不。其實不少大模型公司在訓練時更“按部就班”,他們可能選擇擁抱DeepSeek的架構,但在架構本身上花的原創心思不多,他們更傾向于在優化器、Agent訓練方面做單點突破。但DeepSeek V4做了全棧,把很多大家曾習以為常的默認規則,全打碎了。現在應該沒有人在看完他們的技術報告后不去研究的吧(笑)。

白鯨實驗室:為什么騰訊、阿里都在推 30B 以下的“小”模型,而 V4 是巨大的1.6T?

馬驍騰:要想讓模型的表現達到最好,參數量就必須足夠大,模型才有足夠高的“智商”上限。但硬件的物理限制擺在那里,如果想把模型放在本地跑,參數量基本只能控制在 30B(約300億參數)以內。這就形成了強力拉扯,追求智能就得往上堆參數,想要方便部署就得往下壓規模。

所以現在的模型很自然地分成了四個檔位:最小的那一檔,跑在最基礎的硬件上,能說話就行;30B左右可以在個人設備上跑起來;100B到 200B,適合部署在服務器上,用來處理常規的Agent任務;600B到 1T(約1萬億參數),用來解決真正最困難、最復雜的任務。卡在這幾檔中間的參數規模,定位很尷尬,意義不大。

至于這次V4的1.6T版本,它的意義在于追求極限,去探一探參數規模的天花板到底在哪里。但說實話,目前對絕大多數人來說,它確實很難在實際場景(本地部署)中用起來。反而是DeepSeek-V4-Flash(284B參數)最實用。它既劃算,又能在合理的資源下被訓練得動,還能真正部署到場景里去。對于任何一個創業者來說,都不會拒絕在200B這個量級的模型上去開展研究工作,它真的很“香”。

白鯨實驗室:這次V4 發布,用戶端的感知沒有R1那么直接了,可以推薦幾個測試題,讓非技術人員也能體會它的進步嗎?

馬驍騰:其實大家現在還在用傳統思維測模型,比如那些經典的思維陷阱題。但那些題答得好壞,完全不影響代碼任務的表現。V4發布后真正有體感的,是把AI用在編程上的人。這次V4在編程上的表現,只能說是跟Kimi 2.6、GLM 5.1打了個平手,這兩個模型也非常優秀。最前沿的還是得看GPT 5.5和Claude 4.7。

白鯨實驗室:DeepSeek R1是作為“價格屠夫”出圈的,現在的DeepSeek 相比OpenAI、谷歌,有沒有找到新的差異化優勢?

馬驍騰:不能這么單一地看待DeepSeek。R1 本身顛覆性很強,它不僅是當時最大的開源模型,推理能力也足以和OpenAI的O1正面競爭,但它更打動人的是一種“泛化性”,仿佛無所不能。我記得當時各行各業的反饋都是,你跟它聊什么,它都懂一點,還能說到點子上。

這種“萬金油”式的通用智能體驗,在當時的其他國產開源模型上是相對缺失的。大家普遍更聚焦于如何在某個榜單上刷出更高的性能表現。

其實如果DeepSeek真要死磕編程這一個點,完全可以把性能推到業界頂尖水準,但代價必然是犧牲掉在通用任務上的泛化性表現。但這次V4發布,DeepSeek特別強調了對通用世界知識和日常寫作能力的提升。

這類任務恰恰是最難啃的骨頭,因為它們不像強化學習(RL)那樣,可以通過解數學題、寫代碼這種有明確“標準答案”的目標來直接優化。這恰恰說明DeepSeek野心很大,它不愿只做一個編程很強的專用工具。

白鯨實驗室:所以,在某些編程場景,V4打不過Kimi 2.6,GLM 5.1,這是DeepSeek的選擇還是客觀差距?

馬驍騰:我覺得某種程度上,不追求SOTA榜單也是一種智慧,F在發模型很難,大家的要求都太高了,也都很卷。V4提到了大量對通用知識、更好寫作能力的增強,這些都不體現在我們最關注的那幾個榜單上。

我個人感覺,可能V4還是有意犧牲掉一部分的。這種對均衡性的追求,恰恰和谷歌、OpenAI這些頂級實驗室的長期戰略高度對齊。

02

“DeepSeek在技術上領先了至少半年”

白鯨實驗室: 在模型架構和訓練方法上,V4有哪些重大意義上的突破,值得創業者學習的?

馬驍騰:值得說的點太多了。最顯而易見的就是長上下文的訓練方式。在V4開源方案公開之前,業內絕大多數模型最多只能真實訓練到25萬token左右的上下文長度。超過這個限度再想支持更長的文本,全靠一種叫“外推”的技術勉強補位。

這就導致很多號稱支持超長上下文的模型,一旦輸入的文本超過二十多萬token,智商就斷崖式暴跌。原因就是,外推相當于讓模型去猜它沒學過的東西,猜著猜著,之前記住的關鍵信息就丟了。

DeepSeek這次的做法是,干脆一個token都不丟,讓模型在訓練時就主動去容忍長序列帶來的各種誤差,硬生生把上下文窗口撐開。這背后牽扯到模型架構的改動,以及QAT技術,也就是量化感知訓練!傲炕笨梢岳斫鉃榘涯P陀嬎銜r的數字精度壓低,來換取更快的運行速度和更低的資源消耗,但這個壓縮過程必然帶來精度的損失。

常規做法是訓練完之后再量化,通常會有性能折損。而QAT在訓練階段就直接“預判”了推理時會產生的量化誤差,把這種誤差當作訓練的一部分,讓模型提前去學習和適應這種“有損”的環境,抗干擾能力很強。這套設計非常關鍵。據我們觀察,在類似架構上,如果不做QAT,訓練出來的模型性能會下降得非常厲害。

白鯨實驗室:最讓你驚喜的是什么?

馬驍騰:是注意力訓練機制。從DeepSeek V3提出了MLA(多頭潛在注意力),同樣的信息用更少的KV緩存就能記下來。V3.2提出的DSA,是首次實現了可以“主動遺忘”或舍棄一部分不再關鍵的KV緩存,這在以前是很難想象的。我們團隊應該是開源社區里第一個能完整支持DSA訓練的,上周才剛剛把這項技術的細節徹底消化,結果這周他們的新論文就又出來了。

這次V4引入的CSA/HCA(混合壓縮注意力機制)直接挑戰了注意力機制最底層的核心邏輯。過去的優化大多圍繞著“如何更高效地管理緩存”做文章,而DeepSeek的新思路是,讓模型去“學習”緩存本身該是什么樣。這等于是給緩存層也裝上了可訓練的參數,讓它能自己決定該記住什么、忘掉什么。這背后牽涉到的系統復雜度和工程實現難度是暴漲的。

另一個很復雜的工程是KV緩存*的分層管理。前面提到的CSA、HCA(動態稀疏注意力)等新機制,雖然大幅壓縮了KV緩存本身的體積,但也帶來了一個問題,就是緩存的結構變了。過去一整塊可以統一調度的東西,裂變成了不同層級、不同屬性的緩存塊。為了讓它們協同工作,需要一套新的分層管理機制,極其復雜。

*注:KV緩存(Key Value),在Transformer 模型里,指模型把過往的詞打上標簽,方便快速對應標簽底下儲存著的詳細信息,直接決定大模型能記住多長的上文和推理速度。上下文越長,存的東西越多,顯存就被撐得越滿。這也是為什么長上下文模型那么難做的核心瓶頸之一。

白鯨實驗室:最讓你意外的是什么?

馬驍騰:還有一個讓人印象深刻的細節。DeepSeek 內部有一套極其獨創的容器技術DSec,速度極快,而且具備快照功能。就是在訓練過程中隨時給整個系統狀態“拍一張照片”,一旦后續方向走偏,就能瞬間閃回到那個時間點接著重來。

這種工程靈活度,我目前還沒在第二家公司見過。

白鯨實驗室:國外大廠也沒有嗎?

馬驍騰:我不清楚OpenAI怎么做的,但其他大廠,他們沒意識到這個容器技術對Agent訓練的重要性,所以DeepSeek在技術上可以說領先了至少半年。

白鯨實驗室:V4把上下文一次性“吃”進去,這和Mind Lab的Lora是兩條技術路線。你傾向于哪種?V4的方案會不會讓長期記憶問題變得不那么重要了?

馬驍騰:V4的方案確實緩解了記憶問題,但不是唯一的解法。

目前業界跑通的技術路線,大致可以分成兩派。一派是DeepSeek的做法,不斷把注意力范圍撐大,讓模型能在一次處理中直接“吃”進更長的上下文。另一派是OpenAI的路子,他們拼命做壓縮——也就是把過往的對話歷史,實時提煉成一種高度濃縮的“摘要信息”。

你作為用戶,幾乎感覺不到它的記憶預算是有限的,聊起來好像它什么都能記住。但說到底,這兩套方案主要解決的,其實都是工作記憶的問題,也就是模型在當前對話里處理信息的能力。

真正的問題是,無論哪種方案,只要新開一個會話,它就會從零開始。Lora或者說參數化記憶,永遠是長期記憶的終極方案。一個最直接的例子是,掌握一門新的編程語言,你無法把所有語法塞進上下文就指望模型學會。

前段時間,某海外頭部芯片廠商的科學家找到我們,他們每代新硬件都要發明新的語言,這是基座模型不會的,所以要尋求一種通過Lora讓模型快速學習新知識的方式。而且,Lora今年已經非常明顯地適用于當前模型的整個后訓練流程技術棧了。各大廠商的訓練方式就是基座訓練好后,分成各個分支分別去訓練專用任務,最后合并,這其實就是非常適合Lora的模式。

白鯨實驗室:下一個階段的競爭核心是在哪?繼續在文本、Agent上卷,還是多模態?

馬驍騰:我覺得Agent還沒卷到頭。從技術上講,如果在文本能力上取得進展,模型的可用范圍會明顯拓寬。相比之下,視覺能力沒有外界想象的那么神秘。它的實現路徑已經相對成熟,就是給語言模型外掛一個“視覺編碼器”。

現在DeepSeek上線了識圖模式,也是一種印證。因為它是圖像理解,而不是圖像生成。而且智譜和 Kimi 現在接入視覺功能也都很絲滑,但用戶并不會因此就覺得這個模型有多厲害,市場真正優先看的,還是它在Agent上的表現。

白鯨實驗室:什么情況下,能判斷Agent已經卷到頭了?

馬驍騰:比如GPT 5.5相對于5.4,原來可能需要十句話講明白的需求,現在一句話就行。AI自己會考慮好如何正確完成,自己把從需求到結果的整個流程閉環,中間需要的人工干預的步驟越少,價值就越高。

現在Agent還有很多工作要做。模型在個性化任務上對人的需求和記憶的理解還是很差。這個不是圖像層面的問題,是語言層面的。甚至隨著編程能力增強,模型對人的理解能力還下降了,說話越來越有“AI味”,我們在研究里把這叫做“人格漂移”。

03

模型廠商都開始在預訓練昇騰卡了

白鯨實驗室:這次V4在華為昇騰卡上做了訓練適配,對你們有啟發嗎?

馬驍騰:目前國內第一梯隊的模型廠商,現在已經可以在預訓練階段用華為昇騰卡來替代英偉達芯片了,但后訓練階段還做不到完全平替。目前我們Mind Lab正在積極推動和國產芯片的合作。

白鯨實驗室:預訓練和后訓練適配國產卡,有哪些不同?為什么大家都卡在了后訓練?

馬驍騰:預訓練雖然整體耗時最長,但任務本身非!皢渭儭保P椭欢⒅粋統一的目標(優化一個損失函數),過程穩定且重復性高,目前國產芯片已經可以勝任了。

后訓練完全是另一回事。這個階段包含了指令微調、強化學習等復雜步驟,模型需要頻繁地在“訓練”和“推理”兩種狀態之間高速切換,對芯片的訓推一致性(即同一張卡在訓練和推理時表現都要好,且能無縫銜接)以及極限響應速度要求更高。目前國產卡的生態和算子適配還不夠成熟。所以現階段可以先用國產的推理卡,即專為推理優化的芯片,比如昇騰的推理卡來承接后訓練中的部分推理任務,訓練環節暫時依賴英偉達。

白鯨實驗室:類似DeepSeek和華為的深度合作有篩選門檻嗎?

馬驍騰:還是有的。畢竟現在能訓起這么大模型的實驗室團隊,全國不超過 10 個。

白鯨實驗室:我們能看到大模型后訓練完全適配國產芯片的一天嗎?

馬驍騰:我們現在對國產卡應該燃起充分的希望。國產芯片和英偉達的差距主要是生態,但是原來生態上的不足,現在已經能用 AI 來彌補了。之前模型適配國產芯片,很多底層的基礎算子、適配代碼,都要靠經驗豐富的工程師一行一行寫,費時也缺人。

但現在我不會寫國產生成卡的適配代碼,但AI會寫,而且寫得越來越好。這等于是給適配過程裝上了加速器,效率一下子就提上來了。

白鯨實驗室:這種合作給你們帶來的最直觀好處是什么?成本的大幅下降?

馬驍騰:最直觀的還是緩解算力緊缺。國產卡的成本優勢是很驚人的,現在買卡真的是又貴又難,能用到更多國產卡,對整體生態肯定是更好的。

04

V4炫技,閉源承壓

白鯨實驗室:V4發布當天,有AI概念股下跌6%以上。從二級市場到VC圈,有人調侃說DeepSeek還是國產大模型最嚴厲的父親,你怎么看待這種現象?

馬驍騰:說實話,我個人認為這是短期現象,他們可能并沒真正研究過 V4發生了什么。比如coding場景上,現在也不能說DeepSeek就比 GLM 5.1 好。我理解的“嚴厲”,是DeepSeek做的很坦蕩,就是把模型性能做到這個高度,然后徹底開源,任何人都能免費用。

這等于給全行業劃下了一條非常高的及格線,你如果選擇閉源收費,那你拿出來的東西就不能只比它好一點點,必須得有質的飛躍,好到讓用戶覺得付費是值得的。

白鯨實驗室:說到開源,今年包括Minimax、阿里都出現了閉源趨勢,MiniMax 4月推出的M2.7,在傳統學術意義上依然是開源模型,但它的許可證版本改為“嚴禁商業用途”“需要得到授權才能商業化”,阿里Qwen3.5-Omni選擇閉源。你如何判斷這種戰略轉向?它背后的邏輯到底是什么?是技術控制權?還是盈利壓力?

馬驍騰:我們必須尊重“公司要掙錢”這個事實。一家公司能選擇走開源這條路,本身就是極其艱難的商業決策。阿里的平衡拿捏得不錯,把最強的Qwen Max 閉源,同時把體量小一些的模型開源。但DeepSeek確實會讓這種原本的平衡變得尷尬。

不過另一邊,大家也看到,即使開源,1.6T的大參數沒幾個人能在自己電腦上真正跑起來。要把這樣的模型部署好、跑得順、用到業務里,需要海量的工程技巧和配套服務,這本身就是強需求。比如Kimi、智譜、Minimax智譜,他們開源的模型照樣賣得很好,因為賣的不只是模型權重,更是大家對于他們技術能力的信任。

白鯨實驗室:從第三方評測看,V4更多被強調在代碼任務上的“開源斷層”和價格屠夫的角色——V4-Flash輸出價僅0.28美元/百萬token。就在前一天發布的GPT-5.5輸出價是30美元/百萬token。這種近100倍的價差,在你看來會把AI應用市場帶向何方?

馬驍騰: 其實現在DeepSeek有一種“炫技”的感覺。他想傳遞的是,極致的低價不全是靠壓榨利潤換來的,而是可以通過KV緩存優化這類硬核技術,從底層把算力消耗實實在在地省出來?ㄊ∠铝,成本自然就降了,價格也就有了更低的空間。背后靠的是技術底子。

目前的模型定價策略,也分成了兩條路:一條是朝“更貴、更極致”走,另一條是向“更小、更便宜、更大眾”去。像V4的1.6T版本,追求的就是能力的上限,可以為了極致性能犧牲一點速度和等待時間;而flash版本,目標則是敏捷、好用、覆蓋更廣泛的日常任務,主打速度和性價比。這兩者不是對立的,而是搭配著來。

白鯨實驗室:V4的低價開源,會壓縮做中間態商業模型公司的生存空間嗎?

馬驍騰:我還是覺得垂直場景很重要。在一個強的基座模型上,即使你再擴大參數,智能收益也是有限的。大廠能拿到的數據很有限,垂域應用廠商下游的真實數據,是有很大護城河的。最典型的例子就是Cursor。

它就只深耕編程這一個垂直領域,后訓練做得極好,最近也和SpaceX達成合作并拿到收購期權,估值跟Minimax 這種通用大模型公司平起平坐。這證明了,把后訓練這一件事在垂域做好,就能創造出上市級別的價值。

現在行業的問題是,基座模型迭代飛快,但讓這些能力在具體場景里落地的推理設施和部署工程,還跟不上。我們就在嘗試彌補這個斷層,讓大家能更好地在基座上釋放下游場景的價值。

撰寫|馬舒葉

編輯| 劉培

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
再見了CBA?徐昕已被美國球隊高薪挖墻腳:年薪有望超過2000萬?

再見了CBA?徐昕已被美國球隊高薪挖墻腳:年薪有望超過2000萬?

籃球快餐車
2026-05-08 00:46:53
關于軍購案,黃智賢向季麟連開火,鄭麗文正式交底,不簡單

關于軍購案,黃智賢向季麟連開火,鄭麗文正式交底,不簡單

阿腩講娛樂
2026-05-07 17:04:15
女子川西徒步遇難:全過程曝光,隊友恐擔責,網友怒斥不值得同情

女子川西徒步遇難:全過程曝光,隊友恐擔責,網友怒斥不值得同情

智慧生活筆記
2026-05-08 11:37:52
全身愛馬仕的馬筱梅生完孩子卻改穿三百塊抖音套裝

全身愛馬仕的馬筱梅生完孩子卻改穿三百塊抖音套裝

小邵說劇
2026-05-08 14:12:34
阿斯麥CEO慌了!ASML遭中方禁售,臺積電拒購2nm光刻機,反制猝不及防

阿斯麥CEO慌了!ASML遭中方禁售,臺積電拒購2nm光刻機,反制猝不及防

Thurman在昆明
2026-05-09 01:00:31
演員張頌文片場收工后,將粉絲贈送的茶葉原路退回,并叮囑“你們自己工作掙的錢給自己和家人花,我收收你們的信就好了”

演員張頌文片場收工后,將粉絲贈送的茶葉原路退回,并叮囑“你們自己工作掙的錢給自己和家人花,我收收你們的信就好了”

洪觀新聞
2026-05-07 15:18:54
再見了,塔克!總冠軍+9058萬美金到手,別怪NBA對你無情

再見了,塔克!總冠軍+9058萬美金到手,別怪NBA對你無情

世界體育圈
2026-05-08 14:53:15
一路走好!香港著名填詞人逝世終年60歲,曾為張國榮,鄭秀文填詞

一路走好!香港著名填詞人逝世終年60歲,曾為張國榮,鄭秀文填詞

粵睇先生
2026-05-07 23:56:37
梅西:作為朋友我當然希望內馬爾踢世界杯,但我無法客觀評價

梅西:作為朋友我當然希望內馬爾踢世界杯,但我無法客觀評價

懂球帝
2026-05-08 22:09:49
臺灣地區最新民調出爐,鄭麗文支持率倒數,這下讓蔣萬安撿了漏?

臺灣地區最新民調出爐,鄭麗文支持率倒數,這下讓蔣萬安撿了漏?

共工之錨
2026-05-08 00:16:36
三亞皮皮蝦事件升級!43歲老板身亡,多人威脅店鋪,顧客還有惡行

三亞皮皮蝦事件升級!43歲老板身亡,多人威脅店鋪,顧客還有惡行

不寫散文詩
2026-05-08 15:19:45
月薪幾萬卻招不到人?遠洋海員背后的殘酷,配偶:男女關系太亂了

月薪幾萬卻招不到人?遠洋海員背后的殘酷,配偶:男女關系太亂了

李將平老師
2026-05-08 09:42:27
河南籍演員北京聚餐!一眼望去熟人滿滿,李亞鵬岳云鵬劉震云都在

河南籍演員北京聚餐!一眼望去熟人滿滿,李亞鵬岳云鵬劉震云都在

天天熱點見聞
2026-05-08 04:32:33
OnlyFans女星Annie Knight與Henry Brayshaw婚禮細節曝光

OnlyFans女星Annie Knight與Henry Brayshaw婚禮細節曝光

追星雷達站
2026-05-08 00:19:29
國際足聯終于扛不住低頭了。2026世界杯轉播權報價直接腰斬

國際足聯終于扛不住低頭了。2026世界杯轉播權報價直接腰斬

流蘇晚晴
2026-05-08 20:18:42
文章面館正式開業,免費送汽水喝,馬伊琍帶著兩女兒低調支持!

文章面館正式開業,免費送汽水喝,馬伊琍帶著兩女兒低調支持!

老吳教育課堂
2026-05-08 20:15:22
一眼就歡喜:不只是心動,是久別重逢

一眼就歡喜:不只是心動,是久別重逢

疾跑的小蝸牛
2026-05-08 22:32:10
世體:皇馬更衣室認定,是維尼修斯一直向阿韋洛亞“告密”

世體:皇馬更衣室認定,是維尼修斯一直向阿韋洛亞“告密”

懂球帝
2026-05-08 14:21:05
80年代經典游戲機復活,預裝25款游戲

80年代經典游戲機復活,預裝25款游戲

熱搜摘要官
2026-05-08 00:06:45
中國光伏的堡壘,被印度從內部攻破

中國光伏的堡壘,被印度從內部攻破

觀察者網
2026-05-08 09:00:37
2026-05-09 01:35:00
白鯨實驗室one incentive-icons
白鯨實驗室one
記錄 AI改變世界的瞬間
133文章數 15關注度
往期回顧 全部

科技要聞

SK海力士平均獎金600萬 工服成相親神器

頭條要聞

外籍銀行高層在香港豪宅性虐及殺害兩女子 內幕解密

頭條要聞

外籍銀行高層在香港豪宅性虐及殺害兩女子 內幕解密

體育要聞

他把首勝讓給隊友,然后用一年時間還清賬單

娛樂要聞

古天樂被曝隱婚生子,新娘竟是她

財經要聞

估值3000億 DeepSeek尋求500億元融資

汽車要聞

MG 4X實車亮相 將于5月11日開啟盲訂

態度原創

親子
教育
家居
時尚
軍事航空

親子要聞

家長的五個壞習慣,可能影響孩子一生!

教育要聞

摒棄打壓式教育,讓家庭教育走出攀比陰影

家居要聞

流動的尺度 打破家的形式主義

衣服其實沒有必要買很貴,準備這三件基礎款,百搭實用又不挑人

軍事要聞

伊朗:最高領袖穆杰塔巴全面掌控局勢

無障礙瀏覽 進入關懷版