網易首頁 > 網易號 > 正文 申請入駐

Opus 4.7 被罵翻、Claude Code 還把模型越帶越笨:Anthropic 的野心,輸給了拉胯工程

0
分享至


整理 | 褚杏娟

Anthropic 最近幾個月原本處在一段少見的高光期。

一方面,Claude Code 和 Claude Cowork 的能力提升,明顯拉高了外界對 Anthropic 工程能力的評價;另一方面,Claude 一直是用戶心中“最會寫”的模型之一。甚至在與美國國防部相關爭議引發關注后,Claude 一度沖上 App Store 榜首,熱度和品牌勢能都達到新高。

但這種勢頭,很快被 Opus 4.7 的發布打斷了。

在 Opus 4.6 已經被不少用戶質疑被“削弱”之后,原本承擔“修復口碑”期待的 Opus 4.7,并沒有帶來明顯的升級感。相反,越來越多用戶反饋稱,新版本不僅沒有更強,反而在準確性、穩定性、成本控制和實際可用性上暴露出更多問題。不少用戶并沒有感受到“升級的快樂”,反而因各種糟糕體驗想回到 4.5 版本。

花更多的錢,換更差的體驗

發布至今,社交媒體上已經有不少關于 Opus 4.7“翻車”的案例。

一條 Reddit 帖子標題為“Claude Opus 4.7 是一次嚴重退步,而不是升級”,獲得了 2300 個點贊;而在 X 上,有用戶表示 4.7 并沒有比 4.6 更好,這條內容獲得了 1.4 萬點贊。這樣的吐槽帖不在少數。


一些問題看起來甚至很基礎。

在一個常見但非正式的 AI 測試中,Opus 4.7 甚至表示“strawberry”這個單詞里有兩個字母 P。還有用戶截圖顯示,模型承認自己沒有進行交叉驗證,因為“有點懶”。還有用戶發現,Opus 4.7 在幫他們修改簡歷時,會“編造”新的學?;蛐帐稀2簧偃酥毖?,這一版本“變笨了”。


經典的洗車問題,Opus 4.7 作為公認的頂尖模型也沒有答對

有人猜測問題出在模型的推理機制上。Anthropic 引入了一個新的“自適應推理”功能,讓模型自行決定何時進行更長或更短時間的思考。但有用戶表示,他們“根本沒法讓 Opus 4.7 好好思考”,甚至認為這個機制“削弱了性能”。

對此,Claude Code 的作者 Boris Cherny 回應稱:“這種說法不準確。自適應思考讓模型自行決定何時思考,整體效果更好?!?/p>

不過,在一些具體問題上,Anthropic 也承認還有改進空間。例如,有用戶在 Claude 官網反饋自適應推理的問題后,一名產品經理回應稱,團隊正在“加速內部調優,很快會有更新”。


《Pragmatic Engineer》作者 Gergely Orosz 曾曬出截圖,顯示 Claude 不知道 OpenClaw 是什么。Cherny 詢問他是否開啟了“網頁搜索”功能,結果并沒有開啟,但 Orosz 表示自己此前也從未動過這個設置。Orosz 還指出,這個模型“出乎意料地具有對抗性”,最終“放棄使用”,回到了 Opus 4.6。

還有用戶反饋,模型會拒絕完成一些編碼任務,或者對簡單圖片觸發安全警告。


Opus 4.7 的另一個爭議點是成本。

新模型采用了新的 tokenizer,這意味著同樣的輸入,token 消耗大約會比舊模型高出 1.0–1.35 倍。有用戶表示,在發布后,Claude Pro 甚至問三次問題就會觸及上限。還有人發現,在 GitHub Copilot 中,Opus 4.7 的價格一度達到 7.5 倍溢價(直到 4 月底)。

“那我還是先用 4.6 吧?!庇杏脩暨@樣評論。隨后,Cherny 表示,Anthropic 已提高訂閱用戶的使用額度作為補償。


一些對 Opus 4.7 不滿的用戶試圖回到舊版本,例如 4.5,但卻發現它已經下線,Reddit 上甚至出現了大量自稱“心碎”“哀悼”的 4.5 用戶。

這種情況并不罕見。此前 OpenAI 下線 GPT-4o 時,也曾引發類似的用戶反彈,甚至有用戶開始“討價還價”:“請恢復 Opus 4.5 的支持,”一位 Reddit 用戶在 Anthropic 帖子下留言,“4.6 用不了,4.7 的消耗像核反應堆一樣。”

對于這個問題,Anthropic 并未作出回應。

不過,也并不是所有用戶都持負面態度。有用戶表示:“Opus 4.7 的 token 消耗確實離譜,但它真的很強?!币恍I內人士表達了認可。創業者 Jeremy Howard 稱,這是“第一個真正‘理解我在做什么’的模型”;YC CEO Garry Tan 表示自己在 OpenClaw 中使用它;Cursor 設計師 Ryo Lu 則用它來做規劃。

面對爭議,Anthropic 也在持續調整。“昨天大家首次試用 Opus 4.7 時可能遇到的許多 bug 現在都已修復,”Anthropic 員工 Alex Albert 周五寫道?!案兄x大家的耐心等待?!?/p>


但到目前為止,用戶體驗并沒有明顯改善,吐槽聲依然不止。

一天前,有用戶“MurkyFlan567”曬出了分別用 Opus 4.7 和 4.6 編程 3 天后的實際對比:


在該用戶的使用場景中,Opus 4.7 一次就做對的比例比 4.6 更低,大概是 74.5%,而 4.6 是 83.8%,同時每次修改平均需要的重試次數幾乎翻倍。

Opus 4.7 每次調用生成的內容也明顯更多,大約是 800 tokens,相比之下 4.6 是 372 tokens,這也讓成本明顯更高:單次調用成本約 0.185 美元,4.6 是 0.112 美元。

如果按任務類型拆分來看,4.7 在編碼和調試上的表現都更弱:編碼的一次成功率從 84.7% 降到 75.4%,調試從 85.3% 降到 76.5%。該用戶表示,4.7 每輪調用使用的工具更少,幾乎不怎么把任務分配給子 agent。目前不確定這是風格變化,還是樣本量導致的偏差。

是 Claude Code 把模型帶笨了?

對于使用 Claude Code 的開發者來說,感受更加明顯。

有開發者反饋,Claude Code 對原本能夠完成的任務變得更加遲疑,甚至會在電腦排障、應用調試這類相鄰任務上直接以“超出專業范圍”為由拒絕繼續,而 OpenAI 的 Codex 卻能在幾分鐘內解決同類問題。

而根據 Margin Lab 的內部基準測試結果,自 3 月以來,相關模型的加權平均成績從 57% 下降至 55%,且呈現持續下滑趨勢。測試方式是用 Claude Code 跑 SWE-bench,這個結果被一些人視為 Claude 編程能力在真實工作流中持續走弱的信號。

更激烈的批評來自 AMD 的 AI 團隊。其報告基于 6800 份 Claude Code 會話文件、23.5 萬次工具調用和超過 1.7 萬個 thinking blocks 的量化分析,結論是,Anthropic 推出的“思考內容遮蔽”(thinking content redaction)與復雜長會話工程任務中的質量回退高度相關。報告認為,隨著 thinking 被逐步隱藏,模型不只是對用戶“變得更不透明”,其內部思考深度本身也在下降,相關指標顯示 thinking 長度較此前下降了 73%。


這直接帶來一系列行為變化。報告顯示,原本用于防止模型偷懶的機制,從幾乎不觸發,上升到每天約 10 次;用戶在提示詞中表現出的挫敗感顯著增加;模型逃避責任、需要糾正的情況明顯翻倍。

更重要的是,Claude Code 的工作方式正在從“先研究再編輯”轉向“先動手修改再說”。此前模型的 read-to-edit 比例約為 6.6,即讀取行為遠多于編輯行為,如今該比例已降至約 2,說明模型更少閱讀上下文,卻更頻繁直接改動代碼。

在很多開發者看來,這種變化比“模型偶爾答錯”更危險,因為它意味著 Claude Code 正在從一個謹慎的工程助手,變成一個更沖動、更容易誤改的自動化系統。

“官方名義上都是為了防止蒸餾,他們確實‘做得很好’。但問題在于,一個已經被搞得像做了腦葉切除手術一樣的模型,還有誰會想偷它?”知名博主 Theo - t3?gg 評價道。

Theo - t3?gg 認為,讓 Claude 全產品線持續變笨、變懶的原因是不單純在模型上,而在于 Anthropic 的工程實現能力沒有跟上。

Anthropic 工程能力不過關


Theo - t3?gg 認為,大量回退并不一定來自模型參數本身,而可能來自 harness,也就是提示詞、系統規則、工具調用邏輯和產品封裝層的綜合設計。

按照這一說法,用戶發給 Claude Code 的并不只是自然語言請求,還包括系統提示、可用工具列表、產品功能說明以及一整套額外上下文。任何一層設計不當,都會讓模型表現變差。

一個典型例子是,Claude Code 強制要求模型在編輯文件前必須先讀取文件內容。但在一些場景中,模型搜索到了文件,卻因為 harness 不把“搜索”視為“讀取”,導致更新操作連續失敗,不得不額外發起讀取請求后再重試。這種機制不僅浪費 token、增加 API 調用次數,也把無意義的失敗步驟寫進了上下文,進一步污染了后續推理過程。

類似問題在第三方基準測試中也被放大。Matt Mau 的測試結果顯示,同樣的模型放進不同 harness,表現會明顯不同。其中,Opus 在 Claude Code 中的表現比在 Cursor 中低約 15%。在 Terminal Bench 上,Claude Code 也是使用 Opus 時表現最差的 harness 之一,得分僅 58%,而 Forge Code、Cappy 等其他 harness 可達到 75% 至 82%。


除了 harness,API 層也被認為是重要變量,其中包括內容過濾更激進、請求路由變化、工具調用鏈條更復雜,以及 tokenizer 的重大調整。

Anthropic 已確認,Opus 4.7 使用了新的 tokenizer,官方稱其可以改善文本處理方式,但代價是相同輸入會映射為更多 token,大約增加 1.0 到 1.35 倍。另有實測認為,真實增幅可能更接近 1.45 至 1.47 倍,尤其在技術文檔和 Claude MD 文件這類場景中更為明顯。

Theo - t3?gg 分析稱,這意味著,在 Claude Code 這類高度依賴長上下文的產品中,開發者將更快撞上 token 限制,同時上下文本身也會變得更臃腫。由于模型處理的信息量被放大,歷史中的無效內容、失敗調用和額外系統提示更容易堆積,進一步加劇所謂的“上下文腐爛”(context rot)。這種調整本身就足以顯著影響用戶體驗,而更具爭議的一點是,Anthropic 竟然在 4.7 這種小版本更新中引入了如此大幅度的 tokenizer 變化。

底層算力調度,則是第三個被反復提及的變量。

與許多 AI 公司不同,Anthropic 并未完全押注 Nvidia GPU,而是同時使用 AWS 的 Trainium、Google TPU 以及部分 Nvidia GPU。這意味著,同一位用戶在同一段 Claude Code 會話中的不同工具調用,可能被分發到不同云平臺、不同芯片架構上執行。由于每次工具調用后都會重新發起 API 請求,復雜任務往往不是一次推理完成,而是由一連串請求拼接而成。理論上,這使得同一個任務流程中,不同步驟可能面對不同的服務環境,從而帶來不同質量波動。

這一點也與 Anthropic 去年 9 月的一份事故復盤形成呼應。那份技術報告披露,去年 8 月至 9 月初,Claude 曾因三個基礎設施 bug 發生間歇性質量退化。其中包括上下文窗口路由錯誤、負載均衡改動放大問題、輸出損壞,以及 top-k 計算異常。引人關注的一點是,一部分 Sonnet 請求曾被錯誤路由到“100 萬 token 上下文版本”服務器,而 Anthropic 自己也承認,這一版本在非超長上下文場景中的表現更差。

這讓外界對 Anthropic 近期默認推廣 100 萬 token 上下文窗口的策略更加敏感。根據 Theo - t3?gg 推測,Anthropic 已將 Opus 4.6 和 Sonnet 4.6 的完整 100 萬上下文窗口設為更普遍的默認能力,并且取消了長上下文額外溢價。

他帶有陰謀論色彩地解釋道,如果 Anthropic 想把部分流量從 Nvidia GPU 轉向 AWS Trainium 和 Google TPU,那么推廣 100 萬上下文窗口,可能正好是一個有效的流量引導手段。因為更大的上下文窗口通常意味著不同部署方式、不同硬件需求,也可能對應不同質量表現。

雖然這一判斷缺乏直接證據,但 Theo - t3?gg 指出,Claude Code 用戶如今很難直接在常規界面里切換上下文窗口大小,而禁用 100 萬上下文通常需要手動改環境變量。這讓“默認更大的上下文,帶來默認更差的體驗”成為不少開發者的切實感受。

通過上述分析,Theo - t3?gg 得出結論:開發者感知到的“Claude 變笨”,可能并非單一原因導致,而是多層問題疊加的結果。這里面既有用戶自身預期不斷上升后的心理落差,也有真實的工程問題,包括 harness 污染上下文、API 過濾和路由策略變更、thinking redaction 影響長會話推理、tokenizer 改動放大 token 消耗,以及多硬件平臺部署帶來的不確定性等問題。

“你就是被坑了”,谷歌來搶市場

Theo - t3?gg 指出,相比之下,OpenAI 及 Codex 并未遭遇同等規模、同等持續性的“變笨”爭議。

他曾詢問開發者是否明顯感受到 Codex 或 OpenAI 模型也存在類似退化,多數反饋認為偶爾有短時波動,但沒有像 Anthropic 這樣長期、系統性的持續討論。甚至 OpenAI 方面還明確表示,他們確實會公開某些接口層問題的調查結果,但不會在模型發布后頻繁改動模型本身或 thinking budget,而是更強調保持發布時的穩定狀態。

“我一點都不羨慕 Anthropic 以及那些要去排查這些問題的人,因為覆蓋面實在太大了。而且坦白講,整套東西看起來像是被一群非常不靠譜的人拼出來的。Anthropic 的工程文化出了很大問題,而這些問題已經直接導致結果也變得一團糟?!盩heo - t3?gg 直言,“如果他們真的想做出可靠的基礎設施和軟件,那就必須從底層開始徹底重想一遍。以現在的狀態,我們無法信任 Anthropic 推出的這些東西?!?/p>

現在的 Anthropic,一邊持續推出新能力、新工具和新封裝,一邊卻沒有給出足夠透明的解釋,也沒有拿出足夠穩定的工程實現,最終讓用戶在每月支付高額訂閱費用的同時,得到的結果越來越差。

“如果你覺得自己被坑了,那不是錯覺,你就是被坑了。你這幾個月每個月付 200 美元訂閱費,結果拿到的東西卻越來越少、越來越差。這根本不可接受?!盩heo - t3?gg 說道。

值得注意的是,今天 The Information 報道稱,谷歌成立突擊隊以改進編碼模型(因為 Gemini 遠不如 Claude 4.5+、GPT 5.4 等)。這意味著有深厚工程經驗的谷歌也開始奮力爭奪 AI 編程市場。

據知情人士透露,Brin 與谷歌 DeepMind 首席技術官 Koray Kavukcuoglu 均直接參與了這支攻堅團隊的工作,足見谷歌高層對其的重視程度。在最近的一份備忘錄中,Brin 向谷歌 DeepMind 員工表示,他們必須全力轉向、奮起直追 AI 智能體(AI agents)。布林寫道:“為了贏下這場最后的沖刺,我們必須緊急彌補智能體執行能力的差距,讓我們的模型成為代碼的‘主力開發者’?!?/p>

Gemini 3 已經證明了谷歌的追趕能力,模型編程能力疊加工程經驗,讓谷歌有潛力動搖 Anthropic 的核心編程優勢。

一邊拓展 Claude 能力,一邊加約束

Opus 4.7 發布后,資深開發者 Simon Willison 對比了對比了 Opus 4.6 和 4.7 之間的 git diff。通過 Opus 4.7 的系統提示詞變化,也體現出了 Anthropic 正在調整 Claude 的產品角色。

首先,“開發者平臺”現在更名為“Claude 平臺”。

系統提示詞中提到的 Claude 工具列表,現在包括 Claude in Chrome(一個可以自主與網頁交互的瀏覽智能體)、Claude in Excel (一個表格智能體)、Claude in PowerPoint ( 一個幻燈片智能體)。Claude Cowork 可以把這些都當作工具來使用,其中,Claude in PowerPoint 在 4.6 版本中并未出現。

其次,兒童安全部分被大幅擴展,并被包裹在一個新的 標簽中。特別值得注意的一點是: “一旦 Claude 因兒童安全原因拒絕某個請求,那么在同一對話中的所有后續請求,都必須以極高的謹慎態度處理?!?/p>

另外,官方也在讓 Claude 變得不那么“粘人”:“如果用戶表示他們準備結束對話,Claude 不會再試圖挽留用戶或引導其繼續互動,而是尊重用戶停止的請求?!?/p>

新增的 部分包括:

  • 當用戶請求中只缺少一些次要細節時,用戶通常希望 Claude直接給出一個合理的嘗試結果,而不是先被反復追問。只有在確實無法回答的情況下(例如引用了不存在的附件),Claude 才會先提問。

  • 如果存在可以解決歧義或補充信息的工具(例如搜索、定位用戶位置、查看日歷、發現可用能力等),Claude 應優先調用工具來解決問題,而不是讓用戶自己去查。

  • 一旦 Claude 開始執行任務,就應該完整地完成答案,而不是中途停止。

Willison 還注意到,Claude chat 現在似乎有了一個“工具搜索機制”。

根據 API 文檔以及 2025 年 11 月的一篇文章描述:在斷定自己“不具備某種能力”(比如訪問用戶位置、記憶、日歷、文件、歷史對話或外部數據)之前,Claude 會先調用tool_search來確認是否存在相關但尚未啟用的工具。只有在 tool_search 確認沒有匹配工具之后,Claude 才可以說“我無法訪問 X”。

此外還有新的約束,鼓勵 Claude減少冗長表達:Claude 會保持回答聚焦且簡潔,避免用過長的回復讓用戶產生負擔。即使需要加入免責聲明或補充說明,也會盡量簡短,把重點放在核心答案上。

還有一些內容在 4.6 中存在,但 4.7 版本中被移除。 Willison 猜測,很可能是因為新模型已經不再出現這些問題,比如 Claude 避免使用星號中的動作或表情(除非用戶明確要求這種風格)、Claude 避免使用 “genuinely”“honestly”“straightforward” 等表達。

Opus 4.7 中新增了一個關于“進食障礙”的部分(此前沒有明確提及):“如果用戶表現出進食障礙的跡象,Claude 不應在對話中提供具體的營養、飲食或運動建議,包括任何具體數字、目標或步驟。即使這些內容是出于幫助用戶建立健康目標或提醒風險,也可能會觸發或強化不良傾向?!?/p>

針對一種常見攻擊(誘導模型對爭議問題給出“是 / 否”答案),系統提示詞也增加了防護(在 部分):“如果用戶要求 Claude 對復雜或有爭議的問題給出簡單的‘是或否’(或單詞式回答),Claude 可以拒絕這種簡化回應,轉而給出更有層次的解釋,并說明為什么不能用簡單答案回應。”

Claude 4.6 中曾有一段特別說明: “Donald Trump 是現任美國總統,并于 2025 年 1 月 20 日就職?!边@是因為在此前的知識截止時間下,模型可能會錯誤否認這一點。Willison 發現,在 4.7 中,這段內容被移除,反映出模型的知識截止時間已更新到 2026 年 1 月,并具備更可靠的事實認知。

要真正理解 Claude chat UI 的能力,模型的“工具描述”反而是更關鍵的,但 Anthropic 并未給公開信息。Willison 則通過對話獲得了一些信息。

他直接問 Claude:“列出你所有可用的工具,并提供完整的工具描述和參數?!备鶕卮鸾Y果,下面工具列表與 Opus 4.6 相比并沒有發生變化:

https://www.businessinsider.com/anthropic-claude-opus-4-7-backlash-tokens-2026-4

https://www.youtube.com/watch?v=KFisvc-AMII&t=44s

https://simonwillison.net/2026/Apr/18/opus-system-prompt/

聲明:本文為 InfoQ 整理,不代表平臺觀點,未經許可禁止轉載。

直播推薦

Q:Lab 龍蝦季 Vol.1「牛馬場景篇」——當老板的奪命需求遇上 AI,KimiClaw / DuMate / WorkBuddy 同步接單,實測誰能在 1 小時內讓混亂 Excel、PDF 合同、Word 周報等零碎信息,變成投資人 One-Pager!

4 月 21 日 19:00-20:30 直播實測,碼上預約~

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
80W全能卷王,輕薄本也能玩3A!惠普星Book Pro 16深度測評

80W全能卷王,輕薄本也能玩3A!惠普星Book Pro 16深度測評

電腦報
2026-04-20 16:51:12
克媒:莫德里奇顴骨骨折賽季報銷,預計將戴面具出戰世界杯

克媒:莫德里奇顴骨骨折賽季報銷,預計將戴面具出戰世界杯

懂球帝
2026-04-27 22:00:51
羅永浩連發6個問句怒懟!俞敏洪反思“東方甄選多位主播離職”,有網友說“任何一個人遭遇羅永浩、董宇輝這種忘恩負義的小人都夠嗆”

羅永浩連發6個問句怒懟!俞敏洪反思“東方甄選多位主播離職”,有網友說“任何一個人遭遇羅永浩、董宇輝這種忘恩負義的小人都夠嗆”

魯中晨報
2026-04-27 17:56:12
大五座SUV市場都在演戲!嵐圖泰山X8,撕碎所有偽大五座

大五座SUV市場都在演戲!嵐圖泰山X8,撕碎所有偽大五座

科技每日推送
2026-04-23 18:25:22
車企為什么開始把新車首發押在京東上?

車企為什么開始把新車首發押在京東上?

豹變
2026-04-25 08:00:03
匈牙利一夜變天:馬扎爾開啟全面清算!歐爾班往哪走?

匈牙利一夜變天:馬扎爾開啟全面清算!歐爾班往哪走?

大江看潮
2026-04-27 09:05:55
江淮汽車:目前尊界S800面向國內銷售

江淮汽車:目前尊界S800面向國內銷售

每日經濟新聞
2026-04-27 16:27:20
演員陸毅嘴唇發紫,被網友提醒去醫院體檢;陸毅聽勸后回應:心臟沒問題,體重卻超標了,身高1米8,體重180斤,“我是方的”

演員陸毅嘴唇發紫,被網友提醒去醫院體檢;陸毅聽勸后回應:心臟沒問題,體重卻超標了,身高1米8,體重180斤,“我是方的”

浙江之聲
2026-04-27 13:09:03
吉林伊通驚現200萬豪華住宅式墓地,獨門獨戶地上地下兩層

吉林伊通驚現200萬豪華住宅式墓地,獨門獨戶地上地下兩層

大象新聞
2026-04-27 13:41:32
克宮發出最后通牒要求烏作出“痛苦決定”,德國炮彈產能超越美國

克宮發出最后通牒要求烏作出“痛苦決定”,德國炮彈產能超越美國

史政先鋒
2026-04-27 18:27:59
拆解健合:一季度數據里的抗周期基因

拆解健合:一季度數據里的抗周期基因

一點財經
2026-04-27 18:31:37
這才是提高數學成績最好的方法?。ńㄗh永久收藏)

這才是提高數學成績最好的方法?。ńㄗh永久收藏)

戶外阿毽
2026-04-27 09:46:34
這位派出所長,你瘋了嗎?

這位派出所長,你瘋了嗎?

新海言
2026-04-27 11:01:05
余承東在華為權力排名

余承東在華為權力排名

生活新鮮市
2026-04-27 18:30:53
32歲男子:一周多達9次,不幸猝死,妻子:多次勸說,他就是不聽

32歲男子:一周多達9次,不幸猝死,妻子:多次勸說,他就是不聽

川渝視覺
2026-04-27 22:04:50
開源模型橫掃21個科學任務!寬德Will聯手斯坦福清北,試錯變武器

開源模型橫掃21個科學任務!寬德Will聯手斯坦福清北,試錯變武器

機器之心Pro
2026-04-26 13:19:19
自導自演白宮記協晚宴槍擊事件?特朗普回應

自導自演白宮記協晚宴槍擊事件?特朗普回應

極目新聞
2026-04-27 19:31:28
我敢打賭99%的男人會選白衣服女孩做老婆,看腿型就知道

我敢打賭99%的男人會選白衣服女孩做老婆,看腿型就知道

朗威談星座
2026-04-26 10:47:21
隨著吳宜澤13-11勝塞爾比,火箭12-13,世錦賽8強對陣出爐附賽程

隨著吳宜澤13-11勝塞爾比,火箭12-13,世錦賽8強對陣出爐附賽程

小火箭愛體育
2026-04-28 00:09:23
上海地鐵32歲女子與66歲老太互毆后續:央媒發聲,拘留只是開始!

上海地鐵32歲女子與66歲老太互毆后續:央媒發聲,拘留只是開始!

青梅侃史啊
2026-04-27 11:38:30
2026-04-28 02:47:00
InfoQ incentive-icons
InfoQ
有內容的技術社區媒體
12309文章數 51863關注度
往期回顧 全部

科技要聞

DeepSeek V4上線三天,第一批實測出來了

頭條要聞

坐在特朗普身邊親歷槍擊案的女記者 身份非常不一般

頭條要聞

坐在特朗普身邊親歷槍擊案的女記者 身份非常不一般

體育要聞

人類馬拉松"破二"新紀元,一場跑鞋軍備競賽

娛樂要聞

黃楊鈿甜為“耳環風波”出鏡道歉:謠言已澄清

財經要聞

Meta 140億收購Manus遭中國發改委否決

汽車要聞

不那么小眾也可以 smart的路會越走越寬

態度原創

家居
房產
藝術
游戲
旅游

家居要聞

江景風格 流動的秩序

房產要聞

信號!海南商業版圖,迎來大變局!

藝術要聞

他的油畫筆觸粗獷又細膩,透著一種不可言說的美!

《AC黑旗》重制版新增專屬劇情!原版編劇親自執筆

旅游要聞

不止看花 京津冀春日游花樣翻新

無障礙瀏覽 進入關懷版