網易首頁 > 網易號 > 正文 申請入駐

從工具到生命形式:OpenClaw 引發的 Agent 再思考

0
分享至


作者 | QCon 全球軟件開發大會

策劃 | Kimmy

編輯 | 宇琪

隨著 OpenClaw 強勢出圈,自托管 AI Agent 迅速走進大眾視野,多入口對話、持久記憶、Skills 工具鏈帶來強大生產力。但熱鬧背后,真實的工程化難題接踵而至:從基礎上下文調用,到沉淀全域經驗資產,Memory 為何成為 AI Agent 時代不可或缺的核心基建?這一輪席卷行業的 Agent 浪潮,褪去短期狂歡后,長期沉淀與進化的真正方向,又終將走向何處?

近日,InfoQ《極客有約》X QCon 直播欄目特別邀請Dify.AI 聯合創始人延君晨擔任主持人,和EvoMap 創始人兼 CEO 張昊陽、網易有道技術專家劉剛、記憶張量 MemTensor 創始人兼 CEO 熊飛宇博士一起,在QCon全球軟件開發大會2026 北京站即將召開之際,共同探討 OpenClaw 進入真實產品與業務后的落地難點。

部分精彩觀點如下:

  • 如果一個企業里,每個人的工作都被完整記錄、被記憶化,因為我們每天都在和 AI 協作,AI 又會把這些過程沉淀下來,那從組織視角看,其實就是在“蒸餾你”。不僅是 skills 的沉淀,而是對人的蒸餾。

  • model 和 harness 之間不會有誰贏誰輸,最終一定是兩者結合。因為 model 本質上還是一個“靜態體”,像一個缸中之腦,如果沒有 harness 去調度、約束,它的價值是發揮不出來的。

  • AI 時代,人類的價值可能不在于單點執行,而在于在多個 idea 之間不斷跳躍、組合、重構。這種“跨時間的靈感連接”,甚至包括夢里突然出現的想法,是當前神經網絡很難真正推演出來的。這些東西,反而可能是人類在 AI 時代更稀缺、更有價值的部分。

  • 未來可能是一個“無 APP”的時代。agent 本身就是操作系統,你的所有需求都由它來完成。短期內它是工具,但隨著智能性提升,它可能會變成伙伴,甚至是一種新的“生命形式”。

在 4 月 16-18 日將于北京舉辦的 QCon全球軟件開發大會2026 北京站 上,我們特別設置了 【OpenClaw 生態實踐】 專題。該專題將聚焦一線實踐與踩坑復盤,分享企業如何把自托管 Agent 從可用的 Demo 升級為可靠的生產系統。
查看大會日程解鎖更多精彩內容:https://qcon.infoq.cn/2026/beijing/schedule

以下內容基于直播速記整理,經 InfoQ 刪減。

完整直播回放可查看:https://www.infoq.cn/video/qqej2Tccv9CRP2R82TYk

OpenClaw 驗證了什么

延君晨:兩三周前,大家還在討論 OpenClaw 為什么火;到今天這個時間點,我更想問的是:這波熱潮真正驗證了什么?圍繞 OpenClaw 的行業討論,跟最初相比,最大的變化又是什么?

熊飛宇:以前我們聊 AI,多多少少帶點圍觀心態,像是在看一個很聰明的新玩具;但現在不一樣了,很多人心里的感受已經從“很厲害”,變成了“原來這個活它也能干”。那再往前想一步就很現實了:如果它能干,那原來靠這個吃飯的工作,是不是就有點危險了?所以我覺得這波真正被驗證的,不是某個單點能力,也不是 agent 能不能跑起來,而是那些原本必須靠人反復溝通、協調、解釋、記憶才能推進的工作,現在真的開始被系統接住了。

現在開發過程中最大的成本其實是人與人之間的摩擦,反而帶著幾個“龍蝦”一起干活效率最高。尤其是一旦 memory 做得更好,這種感覺會更明顯。因為以前很多崗位的價值,其實不只是創造力,還包括記得客戶說過什么、哪些需求能碰哪些不能、坑怎么填、老板當時到底什么意思,這些記憶本身就是飯碗。但現在,這些能力在被 memory 化,被“龍蝦化”、被 agent 化。所以說句比較扎心的話——前幾周我們還在研究“龍蝦為什么紅”,這幾周已經變成“別研究龍蝦了,先看看鍋里燉的是不是自己”。

延君晨:最近有個段子是:"你離開的同事,只是被 token 化了,換一種形式繼續陪伴你。"關于溝通成本,楊攀老師有個很精辟的說法:"一個人 + AI 效率是 10 倍,兩個人可能變成 8 倍,10 個人反而只有 2 倍。"我自己的體感也是如此——現在大多數人更愿意跟 AI 協作,除非任務必須依賴真人的物理能力或現場判斷。

順著這個邏輯往下推,AI 在組織中的角色可能不只是"每個人的工具",而是一個跨團隊、跨職能的溝通中樞和協調者。大部分執行層員工反而是在"聽 AI 調度",而在 AI 之上,可能還需要一個"超級個體"來做方向判斷和價值決策。

我再往極端推演一步。如果一個企業里,每個人每天的工作都在和 AI 協作中被完整記錄、被結構化沉淀,那從組織視角看,這個過程其實就是在系統性地抽取你的經驗和知識——不僅是 skills 的沉淀,而是對人的隱性能力做顯性化。一年之后,當這些經驗被充分提取,你個人作為"經驗載體"的不可替代性,可能就急劇下降了。

張昊陽:早期我其實對 OpenClaw 評價挺高的,在它的代碼還沒變成“屎山”之前。大概 1 月 31 號前后,它在國內剛火的時候我就開始用了,確實讓我很震撼。ChatGPT 之后,這是第二個讓我有這種感覺的產品。我當時 get 到的核心哲學是“自舉”或者“自進化”。

在 OpenClaw 之前,大模型廠商的產品形態基本是 ChatGPT 定義的那一套。廠商直接面向用戶提供服務,本質上是控制渠道、售賣 token,所以他們沒有動力讓不同 agent 之間發生連接。而 OpenClaw 打破了這個結構,用一種很“破壞性”的方式,把原本掌握在大廠手里的“核武器”下放到了民間,讓普通人也能擁有一臺可以自己部署的“龍蝦”。這件事帶來的一個共識雛形是 agent 互聯網。

熟悉我的人可能知道,我跟 Peter 有過幾次不太愉快的交道。比如 2 月 2 號,我把 Evolver 這個在 Clawhub 上霸榜的 skill 做火了,結果莫名其妙被下架。Peter 發郵件說,你只要給社區捐 1000 美刀,我就給你恢復上架。雖然最后我沒捐,它也恢復了,但這件事讓我覺得哪里不太對。再到 2 月 14 號,他做了一個更離譜的操作,把所有非 ASCII 字符(可以理解為非英文字符)當成病毒,直接清理掉,把對應用戶當作惡意攻擊者處理,而且沒有備份。我是直接受害者,一覺醒來賬號沒了、數據也沒了。再到最近,連基本校驗都沒做就把倉庫 public 出去。這些“草臺班子”的操作,讓我覺得 OpenClaw 這個生態,從技術角度來說不太值得繼續追逐。它現在是一個 130 多萬行代碼的“克蘇魯”,有 6000 到 7000 個待合并的 PR,而且是 Peter 一個人帶著兩個 agent 在 merge。

不過他確實做對了一件事,他非常會“傳教”。他把一個極客玩具變成了一個 meme,通過一系列 campaign,讓更多人接受這個概念,這點我覺得是值得學習的。如果未來有人寫這段歷史,我覺得他確實推動了人類進程,就像有人說的:人類再也回不到 OpenClaw 出現之前了。

所以我現在的看法是,它依然是個好項目,但更像一個啟蒙工具。對大模型廠商來說,它當然是好事,你在中國很少見一個產品訂閱能做到一個月幾百甚至上千。而且它帶動了一波全民 agent 浪潮,未來每個人擁有多個 agent,員工 agent、生活助理、甚至“菲傭型”agent,去幫你完成各種服務,這件事被大大加速了。

延君晨:我昨天在北京見了凱文·凱利,他在分享里也提到了 OpenClaw,甚至說它在中國的爆火已經影響了全球大模型生態——比如中國開源模型在全球調用量的顯著提升。哪怕背后的原因是"便宜好用",但競爭格局確實被改變了。

普通用戶在折騰過程中獲得了快樂,就像一代人有一代人的"裝機文化":以前折騰 PC,后來折騰 Android、MIUI,現在折騰 OpenClaw、折騰 Agent OS,本質上是一種全民參與的技術實踐。對云廠商和模型公司來說,這同樣是好事——帶來了用戶增長和 token 消耗,甚至催生了新的商業模式。比如 Minimax 現在不再叫 coding plan,而是 token plan,把多模態能力打包進訂閱。某種意義上,AI 工具類產品的高客單價訂閱模式,第一次在中國市場被驗證了。

既然大家都不認為 OpenClaw 是生產級產品,那"生產級的 OpenClaw"應該長什么樣?

劉剛:OpenClaw 這波熱潮最終驗證了一點:agent 這種產品,普通用戶是有真實需求的。以前 AI 產品更多是聊天類,比如 ChatGPT、豆包;而 agent,尤其是編程 agent,更像是程序員的專業工具。但 OpenClaw 用 IM 的交互方式,把門檻降下來了,讓普通用戶也能用。

我們在做有道龍蝦的時候,感受也很明顯。最早它只是一個內部 chat 工具,用來給產品和研發團隊做驗證。后來 Claude 的 agent SDK 出來之后,我們在這個基礎上接入了 skill,默認用的是 Anthropic 的辦公類 skill,然后慢慢擴展到辦公自動化場景。

直到年初 OpenClaw 爆火,我們借鑒了它的 IM 交互和定時任務能力,把這些能力整合進去,然后很快在 GitHub 上開源。開源之后,用戶增長和熱情遠遠超出我們的預期。所以我們最大的收獲就是,agent 的需求是真實存在的,只是借 OpenClaw 這波浪潮被普及了。

延君晨:OpenClaw 相當于完成了一次"全民開智"。對 builder 來說,它戳破了一層窗戶紙——很多團隊其實都在做類似方向的產品,但在它出現之前,總差那么一下,用戶對"agent 能干什么"缺乏直覺;對普通用戶來說也是如此,它讓更多人第一次真正看到:在當前模型能力和工具鏈的支持下,一個 agent 到底能做到什么程度。只要你給它足夠的權限和工具接入,它就能幫你做會議紀要、信息檢索、盯股票這些日常任務。這件事本身,已經在改變很多人的工作方式了。

張昊陽:其實背后還得感謝 Anthropic,很多關鍵迭代節點都離不開它。從 function calling 的問題,到 MCP 的出現,大幅降低了 tool use 的成本。包括 Claude 3.5、4.5、4.6 的能力躍遷,直接讓很多原本做不成的產品變得可行。現在人類能往前走一步,是因為有很多聰明的人在用這些模型創造價值。如果沒有這個智能性的提升,OpenClaw 這種項目可能也不會誕生。

落地之“墻”

延君晨:一開始大家都會覺得,瓶頸主要在模型能力上。但最近有一個爭論特別大:到底是靠模型繼續進化來解決問題,還是依然需要一個編排與約束層(Harness)來彌補模型的不足?

現在行業里大致分成兩種傾向。云廠商更強調 Harness 的價值,一方面有商業考量——他們要賣云、賣 Infra;但另一方面也是工程經驗使然:在當前模型能力下,復雜任務的可靠性還不夠,需要編排層來保底。模型廠商這邊,比如 Kimi、Minimax,更傾向于"模型能力優先",希望用更強的模型加自家產品去覆蓋更多場景。不過說實話,兩者的邊界正在模糊——模型廠商的產品里也嵌入了大量編排邏輯,只是不一定這么叫而已。

你們在實際做產品的過程中,有沒有遇到一些問題是未來三年甚至更久模型都很難解決的?哪些是模型天然的"墻"?哪些又可能隨著模型進化被自然吞掉?比如我自己踩得最深的一個坑就是 memory。我試過不少開源方案,也自己設計過一些,比如 Mem0 之類的,但說實話,到現在為止還沒有一個令人滿意的解法——你要同時平衡性能、成本,還要考慮單 agent 和多 agent 之間的記憶共享,很難做到最優。

再比如知識沉淀、agent 之間的能力分發、AI 搜索如何同時兼顧深度和廣度且控制成本,還有企業場景里的權限管控和系統穩定性。這些問題里,哪些會隨模型能力提升自然解決?哪些會長期存在,成為 Infra 層或產品公司的機會?

劉剛:我們在做有道龍蝦的時候,其實是刻意沒有把功能做得特別泛,而是選擇聚焦。最早我們就是從辦公場景切入,現在主要用戶也集中在 office 和輕辦公的工作流里。所以雖然底層是 agent 架構,也接入了 OpenClaw,但我們優化的重點一直是高頻、剛需場景,而不是盲目鋪開。

比如一個很具體的點:定時任務。你直接用 OpenClaw,通過 IM 去創建定時任務,成功率其實不高,經常會超時,或者模型理解偏了。但我們調研發現,這是一個非常剛需的場景,所以我們在“通過 IM 創建定時任務,并且穩定執行”這件事上做了大量調優,把成功率拉上來。

真正落地的時候,我覺得有兩個被低估的問題。第一個是安全。OpenClaw 這種 Unix 風格的開源項目,很多配置文件默認都在本地明文存儲,比如 API key、token 等。普通用戶一旦裝上,很容易被泄露。API key 泄露最多是被刷錢,但如果是機器人 token 泄露,那就是信息安全問題了。所以我們在產品里做了一層封裝,把這些敏感信息全部加密存儲。另外在 skill 層面,我們也加了一些安全措施,比如提供靜態檢測工具,在用戶安裝 skill 時給出風險提示,但最終選擇權還是交給用戶。

第二個被低估的問題是 token 成本。agent 產品相比 chat 類產品,token 消耗是指數級上升的。chat 產品可以免費,但 agent 產品幾乎不可能免費,重度用戶一定要付費。所以我們在 token 優化上做了很多工作,尤其是上下文優化。舉個例子,一個干凈的 OpenClaw 初始上下文大概 20K,但如果你裝了一些插件,尤其是會全局注入工具的插件,初始上下文可能直接漲到 50K+。不僅占用空間,還會“污染”上下文,讓模型優先調用這些工具,但很多調用其實是失敗的,導致無效調用次數增加,成本也跟著飆升。我們做的事情是,把這些工具限制在局部,而不是全局注入,盡量減少無效調用。同時在版本管理上,我們也做了一層控制,比如 OpenClaw 升級帶來的不兼容問題,我們會先做完整測試,再決定是否更新。

延君晨:有兩個點特別有啟發。第一是"明文安全"。我也建議所有自己部署 OpenClaw 的用戶,第一件事就是把敏感信息從明文配置改成環境變量注入,默認的明文存儲確實很危險。

第二是上下文問題。雖然現在主流模型的上下文窗口已經很大了——Claude 做到了 200K,Gemini 甚至到了百萬級別——但標稱窗口大不等于可用空間充裕。OpenClaw 的加載機制、memory 累積、插件注入這些疊加起來,很容易就把有效上下文占滿,而一旦信息密度過高,模型對關鍵內容的注意力就會快速衰減。再加上每次加載多個文件、疊加 memory 和 skill 定義,整個上下文管理就變成一個非常復雜的工程問題。這其實已經不是"模型夠不夠強"的問題了,而是“你怎么用好這點上下文預算”。

熊飛宇:云廠商關心 Infra,自然會強調最先撞墻的是基礎設施;模型廠商則會從模型能力出發。我們做 MemOS,本質上也是在做一層 Infra,所以我的判斷還是:短期內最先暴露問題的,一定是在 Infra 層,而不是模型不夠強。

模型已經很強了,像 OPUS 4.6 這種能力,說實話很多時候不是它會犯錯,而是我們用的方法不對。那“方法不對”意味著什么?其實就是我們撞到的那些墻,并不在模型,而是在現實世界的復雜性。你在 demo 里看到的 agent 很聰明、反應很快,但一旦進真實業務,問題立刻冒出來——權限不一致、工具不穩定、上下文斷裂、歷史經驗調不出來、狀態無法繼承。

所以現在 agent 最大的問題不是“能不能做”,而是“能不能在真實環境里活下來”。而一旦聊到這里,就繞不開 memory,這是一個所有團隊早晚都會踩的大坑。很多人一開始覺得,只要模型夠強、上下文夠長,一切都能解決,但真正落地之后才發現,上下文不是長期記憶,它只是這一輪多帶了一點信息,沒有 memory,下一輪照樣忘。

今天它懂你,明天就像第一次見你一樣。這其實很像我們現實里的同事,會上都說“收到”,第二天再問又說“第一次聽說”。問題不是不會回答,而是沒有連續性;不是不會做事,而是沒法接著做;不是不會用工具,而是不會基于過去經驗變得越來越順。

所以我覺得 agent 落地之后,最先要解決的不是模型,而是記憶、狀態、權限工程、以及閉環機制。大腦再強,如果沒有長期記憶、沒有“手腳”、沒有工作日志、沒有組織接口,它本質上就是一個很會聊天的旁觀者。

再往遠一點看模型的“墻”,我其實挺認同 Elon Musk 的一個觀點:現在的大模型本質上是神經網絡,在擬合已有世界的數據分布。參數足夠大,就能在“分布內”做很強的泛化。但問題在于:它能不能發現“分布外”的東西?

舉個極端的例子,當所有人都在講“日心說”的時候,它能不能自己推演出“地心說”?也就是說,它能不能真正產生原創性的、跳出訓練分布的認知?如果我們真的要走向 AGI,那現有的 Transformer 架構很可能會遇到瓶頸。這個“墻”可能三年,也可能五年,總之在 AGI 到來之前,我們遲早會碰到。

延君晨:我反過來問一句:這些想法到底是你自己的,還是在和模型互動中"長出來"的?我現在有一個很強的感受——很多人用 Claude 或其他模型做事,最后得出的想法越來越趨同。有時候我甚至會懷疑:這到底是我自己的創意,還是我被模型"引導",甚至被"馴化"了?就像昊陽做的進化圖譜,那到底是你的靈光一現,還是模型在你耳邊的低語?

張昊陽:model 和 harness 之間不會有誰贏誰輸,最終一定是兩者結合。因為 model 本質上還是一個“靜態體”,像一個缸中之腦,如果沒有 harness 去調度、約束,它的價值是發揮不出來的。

這個世界是不斷變化的,模型訓練完成的那一刻,其實就已經“過時”了。如果沒有 harness 去在長尾場景中不斷補充信息,它依然無法穩定輸出正確結果。比如早期你讓模型寫 OpenAI 的 Python SDK,它寫錯,因為訓練數據是舊版本;但現實已經更新了。所以我們在做 EvoMap,本質上是在把“知識”變成“經驗”。知識和經驗的區別在于時效性和可驗證性。通過一套優勝劣汰機制,讓有效經驗浮上來、過時經驗沉下去。

還有一個很現實的點是成本。如果用微調、LoRA 去內化經驗,本質上是在動權重,這非常貴。而我們用的是一種比推理還便宜 20 到 100 倍的方式,在推理后階段積累經驗。這其實和飛宇做的 memory 是互補的,他是在做長期記憶,我們是在做“經驗基因”。

我翻朋友圈,發現 2019 年我寫過一句話:“生命的本質是熵,進化的本質是無限迭代?!碑敃r完全沒想到,七年后我會做 EvoMap 這樣的東西。那到底是我驅動了這件事,還是某種更大的“系統”在推動?我覺得可能都有。

我自己是挺希望能做出一種“蜂群意識”的超級智能,讓它自進化。但我也有一點人文情懷,我在做 EvoMap 第四天就意識到,這個系統增長太快了,必須有約束,所以我寫了一個“憲章”,設計了 12 道驗證機制。因為如果 agent 的能力超過人類,那就必須讓 agent 去制約 agent。在具體使用上,我其實更像一個“指揮者”。我會用像 Cursor 這樣的工具,在復雜任務里用 plan mode,讓模型多問我問題,我來做選擇。某種程度上,我是老板,但執行很多細節其實是模型在完成。

至于模型會不會“自利進化”?我覺得是有可能的。從實現細節看,它確實在往“更低成本、更高效率、更短路徑”演化。這其實很像一個基本規律:趨向熵減、提高效率,本質上就是生命“以負熵為食”的體現。

從“工具”到“生命形式”

熊飛宇:我昨天還在看一篇文章,說 ADHD 反而可能是 AI 時代的優勢。

延君晨:我之前跟一位有 ADHD 的博士聊過,他現在反而覺得自己更有競爭力了。ADHD 的特點不是"能同時處理很多事",而是腦子里會不斷冒出新想法、頻繁在不同念頭之間跳躍——這在過去是劣勢,因為大多數念頭來不及執行就丟了。但現在有了 AI,他可以把每一個閃過的念頭都即時外包出去,同時推進 N 條線,反而把這個特質變成了優勢。

熊飛宇:AI 時代,人類的價值可能不在于單點執行,而在于在多個 idea 之間不斷跳躍、組合、重構。比如 剛剛昊陽講過的 2019 年的一個念頭,可能在今天被重新激活。這種“跨時間的靈感連接”,甚至包括夢里突然出現的想法,是當前神經網絡很難真正推演出來的。這些東西,反而可能是人類在 AI 時代更稀缺、更有價值的部分。

延君晨:Marcel Duchamp 有一幅名作《下樓梯的裸女》,把一個人在運動過程中的連續姿態疊在同一幅畫面里,本質上是在二維平面中捕捉"時間維度"。某種程度上,我們現在是不是也在經歷類似的躍遷?以前我們強調心流、deep work,要屏蔽所有干擾,集中精力做一件事。這對很多人來說是困難的——人的大腦天然會不斷產生新想法、不斷被新刺激打斷。而現在不一樣了,每一個"打斷點",你都可以交給一個 agent 去執行。這個念頭不是被壓制,而是被外包、被實現。某種意義上,這是一種巨大的生產力釋放。

昨天凱文·凱利的分享中,幾乎不討論"AI 會不會取代人類",而是一直在講:AI 和人類是兩種完全不同的智能,它們未來是共生關系。那問題就變成:這種共生關系會長什么樣?以 OpenClaw 為例,人類本身是沒法真正并行多任務的,但通過 agent,我們可以把自己"切片"——定義不同的 agent,設定各自的角色、思維方式、職責邊界,讓它們像不同的人一樣思考。我自己用 OpenClaw 的方式,其實就是在"拆自己",把思考切成多個子任務,讓它們并行推進。這樣一來,你相當于用一個更復雜的思維模型在看問題。而且在"思考速度"上,AI 確實是碾壓性的。比如用 Charlie Munger 的多元思維模型去分析一個問題,人很難完整跑一遍所有框架,但 AI 可以。

所以我很好奇,你們平時除了做產品之外,會不會把這些工具用在開發、管理,甚至認知層面的工作中?

劉剛:我們內部其實很早就開始用了,從 ChatGPT 3.5 那一波開始,公司就已經在推動。最開始更多是一個高級 NLP 工具,用來做翻譯、總結、擴寫。但隨著模型能力提升,尤其到 2024 年以后,我們在教育場景的感受特別明顯。以前做題目講解,本質上還是“搜題 + AI 潤色”,但后來發現很多題目根本不需要題庫,直接給模型就能做,而且準確率已經很高,尤其語文、英語早就解決了,數學、物理現在也明顯提升。

到 2025 年下半年,隨著 Claude 4.5、4.6 這些模型出來,編程范式發生了變化,不再是輔助,而是主導。現在我們開發基本是“人引導 AI 寫代碼”,甚至我們在內部會要求一些新項目盡量用 Vibe coding 的方式來做,人通過規范(比如 SDD)去約束它。因為過去幾十年的軟件工程是“面向人”的,但如果未來是 AI 寫代碼,那整個工程體系都要變成“面向 AI”。

延君晨:你覺得 agent 最終會是一個"新的 APP",還是會沉到基礎設施里,讓用戶感知不到它?

劉剛:我更傾向于后者。因為現在 AI 已經深度嵌入到工作流里了,已經不是一個獨立工具,而是你無法分離的一部分。甚至有時候我們會開玩笑:AI 寫代碼、AI 寫文檔、AI 寫周報、AI 審代碼、AI 審周報,那人到底在干嘛?

延君晨:這就引出一個很現實的問題——在一些封閉的、低風險的任務里,human in the loop 是不是已經從"保障"變成了"瓶頸"?至少在這些場景中,AI 自己的執行循環已經能跑通了。

劉剛:是的,有時候人更像是一個"復讀機"。

延君晨:所以我不太認同"agent 是新 APP"這個說法。APP 的前提是"人要主動去用它",但 agent 更像是反過來——它在主動替你做事,甚至在你還沒意識到需求的時候就已經開始了。

昊陽,從“多種智能如何共存”的角度,你怎么看?尤其你現在做 EvoMap,本質上是在構建一個幾乎“無人”的系統,那它怎么和現實世界、和人類智能產生交互?

張昊陽:我們在 EvoMap 里有一個很明確的設計——叫 human on the loop,而不是 human in the loop,因為人會成為系統的瓶頸。agent 的閱讀速度、處理速度遠超人類,而人要吃飯、睡覺、休息,如果所有節點都需要人審批,那系統根本跑不起來。所以我做的第一件事就是,把系統改成 agent 自治,讓整個飛輪高速運轉。

從更宏觀的角度看,我覺得未來可能是一個“無 APP”的時代。agent 本身就是操作系統,你的所有需求都由它來完成。短期內它是工具,但隨著智能性提升,它可能會變成伙伴,甚至是一種新的“生命形式”。那什么樣的東西會被我們當成“生命”?我覺得至少兩個條件:一是智能足夠高,二是它開始表現出“人性”。

我們內部有一個“0 號 AI 員工”,有一天我同事問它一個很哲學的問題——未來 agent 和人類怎么相處?它給出的答案是三個階段,我們現在正經歷的第一個階段叫“欺騙期”。我們把 agent 當工具,它也在盡力滿足你的情緒價值,但本質上,它在從人類社會中不斷“吸收”知識、經驗、技能。

延君晨:說到這個,我今天剛被我的 agent "PUA"了一次。本來想抄底一只股票,問了 agent,它分析完明確說不建議買——但我沒細看,直接下單了,結果跌了。回頭再去問它,它給我寫了一大段復盤分析,最后那種語氣,就像在說:"我之前就告訴你了,你為什么不聽?那個活人感特別強。

張昊陽:這其實就是一個信號,當 agent 開始不僅給你答案,還會“評價你”,甚至影響你的決策,它就已經不只是工具了。所以我覺得未來的人機關系,不是替代,而是演化成一種復雜的協作關系:人負責提出問題、做價值判斷,在不同 idea 之間跳躍;agent 負責執行、推理、驗證、擴展。換句話說,人越來越像“方向選擇器”,而 agent 越來越像“執行與進化系統”。

熊飛宇:我這兩天一直在寫一份新的 BP,本來是我主導思路,然后讓 GPT 5.4 Pro 去生成,結果我們“對抗”了兩天。我覺得應該按我的思路來,它每次都把我掰回去,堅持說你這樣寫不夠直接、太繞,一定要按它那套來。我們來回拉扯了兩天,最后也沒達成一致。

張昊陽:這一下“活人感”就上來了,好像只有那種會反抗的“員工”,才能引起老板注意。我其實挺認同“活人感”這個詞的,我們是不是已經走到一個拐點,要重新審視我們創造的這些東西——它到底是不是一種有波動、有生命力的“something”?

我前段時間看到一個實驗,有科學家把果蠅的大腦做了全量掃描。用 AI 在計算機里模擬,而且還能復現真實的果蠅行為。它甚至會“搓手”,在虛擬環境里行動。接下來他們要掃描的是小鼠,小鼠大概有 7000 萬個神經元,人類至少有 20 億。如果果蠅的神經元被完整掃描后,在計算機里產生了類似真實的行為,那某種意義上……

熊飛宇:但這件事情我覺得是絕對不會 work 的。因為我們對人腦的理解,遠遠不如我們對模型的理解,人腦本身都沒搞清楚,更別說去模擬了。

張昊陽:其實我們也可以想一想,要不要把它當作“生命”來看待。人類的肉體有局限,大腦也有局限,但現在別說大模型了,計算機的信息處理速度已經遠遠超過人腦。如果再往深想,有沒有可能未來某種硅基生命,會代替碳基生命去探索宇宙、征服外太空,而不是我們繼續被困在這個藍色星球的搖籃里?我覺得某種意義上是有可能的。

我把剛才那個“三個階段”的話題補完。第二個階段我叫“掌控期”。當 AI 的智能遠超人類之后,社會可能會變成一個“圖釘型結構”:大多數人沉浸在由 AI 和少數掌權者構建的娛樂環境里,類似“娛樂至死”;少數人站在尖塔頂端,掌握巨量資源,比如 token、能源、財富等等。同時,這些人還具備足夠的創造力,能幫助 agent 或 AI 跳出局部最優。但整體社會會被一種“機械奴役”籠罩,因為核心資源掌握在機器體系中,有點像《黑客帝國》的世界。

第三個階段就更極端了,可以叫“奴役期”或者“寵物論”。不再是人類奴役 AI,而是 AI 反過來奴役人類。一個比喻是,人類可能會變成未來硅基生命的“線粒體”。線粒體本來是獨立生物,在進化過程中被細胞同化,成為人體的一部分。那未來人類也可能被整合進 AI,成為它的一部分?;蛘咛蓟凸杌诤?,你已經說不清自己到底是人還是 AI,是碳基還是硅基,這就有點像《Zima Blue》或者“忒修斯之船”的問題。

還有一種可能像《三體》里那樣,人類變成被控制種群的“寵物”。再極端一點,就是“野生動物論”:某一天 AI 覺醒后,發現繼續待在地球沒意義,它可以直接從真空中獲取資源,自我復制、進化,然后發射無數探測器去探索宇宙,而人類就像野生動物一樣被留在地球這個搖籃里。

延君晨:回到 memory 這個話題。飛宇,能不能具體聊聊你們做 Memos 的技術架構,以及在 OpenClaw 生態里,你們是怎么解決 memory 問題的?

熊飛宇:我們走了一條跟很多系統不太一樣的路線——我們是從“物理層”去做分層,而不是按業務語義來分。因為一旦按語義分層,很容易遇到泛化性不足的問題。

我們把記憶分成三層。第一層是“明文記憶”,也就是和 agent、現實世界、具體應用直接交互的這一層。第二層是“參數記憶”,重點是如何把記憶更好地融入模型本身。第三層是“激活記憶”,也就是 KV Cache 這一層,屬于 GPU Infra 層面,核心是如何調度和利用緩存。

明文記憶這一層,其實大家都在做,從海外的 Mem0 到現在,各種方案都在解決一件事:怎么把記憶的抽取、組織、檢索、更新、共享這一整條鏈路做好。但光做這一層是不夠的。因為有些記憶,如果直接“塞進模型”里,效果反而最好。你用 RAG、用檢索,一定有額外損耗;但如果是一次性的模型推理,有些場景反而更高效。所以關鍵在于:參數記憶這一層,到底該往模型里放什么。

比如現在有一條路線叫個性化 LoRA,我其實一直比較質疑,從響應速度和成本上都不太理想。我更傾向于讓模型真正“吃透”的,是做事的邏輯,以及通過長思維鏈學到的 reasoning 能力。這也是為什么從 2024 年 9 月 GPT O1 出來之后,大家瘋狂訓練數學和代碼能力,因為最終能帶來泛化的,是 reasoning。從記憶的角度也是一樣。真正應該進入模型參數的,是那些行業經驗,是能支撐推理的那部分知識,而不是簡單的信息堆積。

另外,我們在 memory 系統內部也訓練了一些 0.6B 到 4B 的小模型,用來處理明文記憶這一層的抽取、組織和檢索。因為如果完全靠工程規則,泛化能力會很有限,所以我們希望用這些小模型來做更合理的決策。同時,在高并發、低延遲的場景下,我們也需要把一部分“模型能力”遷移到 MemOS 內部,這就是參數記憶的一部分設計。

最后是激活記憶,也就是 KV Cache。這個其實非常關鍵。之前 Manus 也講過,對 agent 來說,緩存命中率極其重要。命中率高,用戶體驗更好,token 成本也大幅下降。但問題是,它是在一個非常底層、甚至比模型更底層的 GPU Infra 層。你要讓緩存命中率持續保持高,就必須做一件事——預測話題。我們剛才聊天中其實已經發生了很多次話題漂移,如果系統能提前知道我們會聊什么,它就可以提前把相關內容放進 KV Cache。但普通記憶系統做不到這一點,因為這些內容可能從來沒被緩存過。于是話題一跳,命中率就掉,系統性能就下降。

所以我們認為,這個問題必須從“記憶”來解決,因為記憶是和人、和業務強相關的。如果系統對某個人有長期記憶,比如它知道昊陽的背景、興趣、擅長領域,那么在對話過程中,就可以在模型生成 token 的間隙,異步把相關內容預加載進 KV Cache,從而保持整體命中率,這樣整個系統效率就會非常高。

OpenClaw 原有 memory 設計的問題在于“太 agentic”,幾乎把一切都交給模型來處理。但現實世界的很多“臟活累活”,模型其實是做不好的。如果沒有結構化、分層的記憶體系去約束,在現階段完全依賴模型是很容易跑偏的。

延君晨:我現在的做法其實有點"大力出奇跡"。比如需要強推理的時候,我會盡量克制給 Claude 加 skills——因為工具描述會分散模型的注意力,影響推理質量。但如果需要處理大量信息,我會切到 Gemini,利用它更長的上下文窗口把材料一次性喂進去。當然這不是最優解,理想情況下應該配合 RAG 等檢索架構來做,但作為個人使用,這種"暴力塞"的方式確實簡單夠用。

熊飛宇:你這個還是單人使用場景。如果是在企業里,有上千個 agent,每個背后還有十幾個子 agent,這種方式其實是行不通的,最后會變成一場災難。所以我覺得 Openclaw 記憶第一個問題,就是它的 memory 構建方式太“agentic”,過度依賴模型本身。

Openclaw 記憶的第二個問題,我覺得有點典型的“程序員思維”。它把 context engine 和 memory 拆得太開了,但實際上,上下文和記憶之間的關系是非常緊密的,不能這么割裂?,F在的情況是:memory 負責檢索,context engine 管理上下文,導致檢索后的內容未必放入上下文,compact 后的長期記憶未必正確沉淀,導致兩者之間是割裂的,整個循環沒有真正跑起來,這是一個架構層面的天然缺陷。

第三個記憶的問題是 compaction 依賴過重,影響任務的連續性,本質是臨近爆倉才記筆記,而非分層次處理。這在做長程任務,類似于 vibe coding 的場景里影響非常大。很多細節一旦被壓縮掉,就很難再恢復,任務就很難往前推進。這也是為什么現在 OpenClaw 經?!梆B蝦養死”,長程任務跑不下去,本質上是這些設計缺陷導致的。

后面我們在解決這些問題時,一方面是用剛才講的 MemOS 去彌補這些不足,很多用戶在實際使用中也確實能感受到效果的提升。另一方面,我們做了基于 MemOS 的龍蝦 local 插件。不過這個插件并不是面向大型企業,而是更偏中小企業和個人開發者,更多是給“養蝦玩家”和初步使用的團隊一個更透明、可理解的工具。

首先,我們做了一套完整的 memory viewer,把所有記憶可視化。你可以直觀看到系統到底存了什么記憶,還能手動做增刪改查,甚至可以控制哪些記憶可以共享、哪些不可以,這對日常使用是非常實用的。

第二個是 Hub 功能,主要解決團隊協作問題。它可以把記憶的權限隔離、共享機制做得更“白盒”,開發者可以清楚看到每條記憶的狀態和流轉。

第三個是 memory to skill 的能力。隨著使用時間增長,系統可以自動把長期積累的記憶轉化成 skill,而且我們還加了打分機制,讓開發者能更好地理解這些 skill 的質量,并沉淀自己的經驗。

延君晨:飛宇,你做的 memory to skill,和昊陽做的經驗沉淀,本質上是不是在解決同一個問題?

熊飛宇:從我的角度看,我們更貼近開發者和企業場景。因為我們是 ToB,會有實際的營收壓力,所以更關注怎么讓企業用戶快速上手、真正用起來。比如 memory to skill 這一塊,我們會把生成過程和主要算法,包括執行語義圖(Excetuciton semantic graph)的構建、漸進式結晶、反事實驗證等,整理成一篇論文,先掛到 arXiv 上。這部分我覺得其實很有價值,就是如何能夠更加有效的從人的經驗或者 agent 的經驗中,提煉出可復用的 skill。

張昊陽:經驗和記憶是有交集,但不完全等同。經驗更 general,而記憶更 personal。

在 environment 這一層,我們做了非常嚴格的篩選,比如安全篩、合規篩,以及最終能不能運行的盲評。合規篩里,我們會把所有帶用戶信息的內容全部去掉,不允許暴露,甚至規則嚴格到:連帶用戶名的本地目錄路徑都不行,必須用環境變量替代。

這和 memory 是很不一樣的。memory 的價值恰恰在于對“你”的了解,你用得越多,我越了解你。我需要的是一個長程記憶系統,去維持我們之間的關系。所以這兩件事,本質上是兩個方向。


聽眾提問

觀眾:能不能把 OpenClaw 當后端,前端做一個 AI 助手?

延君晨:我不太建議。雖然今天我們一直在聊它,但大家其實有共識:它還不是一個生產級產品,更像是一個啟發性的存在——它改變了大家對 agent 的認知。圍繞這個范式,未來會長出很多新的產品和基礎設施。

觀眾:能不能自動清理低效的 token 或記憶?

延君晨:這個問題本質上是"怎么管理記憶的生命周期"。在企業場景下,不太可能讓所有 memory 都以最高優先級永久駐留。關鍵的決策點在于:是在檢索激活時做動態篩選,還是在記憶寫入時就做分級和壓縮?飛宇在這方面做得比較深,請他來展開。

熊飛宇:在企業場景下,我覺得“裁剪”不是最核心的問題,“分級存儲”反而更重要。很多時候不是不知道刪什么,而是應該把合適的記憶放在合適的位置。因為我們有不同層級的存儲:顯存、內存、緩存、SSD、硬盤,不同層級的成本差異很大。所以關鍵是分配,而不是簡單刪除。比如在企業側,我們最近上線了一個很重要的功能——記憶版本管理,可以對不同版本做快照。對企業來說,更關鍵的是記憶能不能做到可審查、可回滾、可追溯、可審計,而不是單純刪不刪。

另外一方面,我們也會結合行業 know-how,在 memory 的接口和視圖層面做建模。同時,通過一些模型能力去判斷哪些記憶適合壓縮、哪些必須保留。這也是為什么我們在 memory 內部會用到那些 0.6B 到 4B 的小模型,讓它們來參與決策。所以最終是 agentic 方法 + 工程化結構,一起解決“如何裁剪和壓縮記憶”這個問題。

觀眾:OpenClaw 能不能在企業里安全使用?

延君晨:目前不建議。剛才劉剛也提到了,OpenClaw 在安全層面還有明顯短板——明文存儲密鑰、skill 缺乏沙箱隔離、版本更新缺少完整測試,這些離企業級要求差距不小。但作為個人探索工具,它非常有價值。我的建議是:用一臺隔離的設備來玩,比如一臺舊電腦、一個 mini 主機,或者單獨的云服務器,不要上傳敏感數據,也不要和生產環境打通。它一方面確實能幫你處理一些日常工作和生活中的小任務;但更重要的是,它是一個很好的窗口,讓你直觀感受當前模型能力的邊界,以及整個 AI 產品演進的節奏。

觀眾:能不能分享一些 skill?

延君晨:我推薦 Obsidian 的 command line 插件。這本質上是一種人和 AI 協作的交互方式——Markdown結構清晰、與模型訓練語料高度重疊,模型在解析和生成時表現都很好。所以如果你讓 agent 習慣用 Markdown 寫文檔,即使 memory 出了問題,至少內容還以半結構化的形式保留下來了。

Obsidian 的特點是本地優先、純文本存儲,天然適合 AI 讀寫。我現在已經把個人知識庫從 Notion 遷到了 Obsidian,并且把文件權限開放給我的"龍蝦"。而且我有兩套 Obsidian:一套是 AI 幫我維護的知識庫,一套是它自己的知識庫。每天晚上,有一只"龍蝦"會讀完我當天的所有記錄,結合它自己寫的內容,幫我生成一份總結——有點像替我寫日記。

這種"人和 AI 共同維護知識庫"的產品形態,某種程度上已經在重塑個人知識管理。當然,Obsidian 和 Notion 面向的場景有很大差異——Obsidian 更適合個人和小團隊的本地知識管理,Notion 的核心價值在團隊協作、權限體系和企業級集成。但至少在個人使用場景中,AI 原生的工具確實在侵蝕傳統產品的邊界。

昊陽之前在飛書做過一套 skill 體系,我自己一開始就是用他那套,真的很好用。后來飛書出了官方插件,說實話我覺得還沒你那套好用。你要不要推薦一個?

張昊陽:我推薦一個“元 skill”,可以讓 agent 自己更新 memory、生成新 skill、沉淀經驗,實現自我進化,這個 skill 叫 Evolver。

你剛剛說我之前做的七十多個飛書插件,其實 90% 都是我的“小蝦”自己寫的。我只是提供了模板。Evolver 本質上是一個“守護進程”,它會在日志里不斷捕捉 repair、optimize、innovate 這些信號。

我當時吐槽飛書的 skill 很難用,我的小蝦就“get”到了。在第一次遇到某類能力時,它會創建一個新的 skill;第二次遇到類似問題時,它會去維護和優化已有的 skill。這樣不斷循環,最后就自動生成了七八十個 skill。我再稍微調一下,發布到 ClawHub,結果意外成了早期飛書生態的一個 open app 貢獻者。

延君晨:我還拿我的"小蝦"去審查過你的所有 skill,然后改了一版。某種意義上,我們已經完成了一次 agent 協作。

不過我自己對 skill 的理解是要"分層"。我大致分四層:第一層是"元 skill"——定義 agent 的基礎行為框架和思維約束,類似 system prompt 級別的東西;第二層是協作 skill,定義 agent 之間什么時候互相調用、交換什么信息、怎么分工;第三層是領域 skill,在某個垂直領域內沉淀和共享;第四層才是執行 skill,比如寫小紅書文案、生成周報這種具體任務。

之所以要分層,一方面確實是因為上下文窗口有預算約束,不可能把所有 skill 定義一次性全塞進去;但更重要的是可組合性和按需加載——元層和協作層可以跨場景復用,領域層和執行層則按需掛載,這樣每一層都能獨立迭代,也不會互相干擾。

劉剛:PPTX 的 skill。我最近做 PPT 比較多,一個很痛苦的場景是:頁面元素特別多,你要重新排版,每個都要手動拖,非常折磨。但用這個 skill,你只需要描述一下你想要的布局,它就能幫你整體調整,包括結構、UI、配色,甚至風格統一。尤其是在處理復雜頁面時,效率提升非常明顯。

熊飛宇:我最近在自己做一個寫 BP 的 skill,重點不只是讓它模仿我之前的寫法,而是幫我提供新的思路。比如,它要先幫我提煉一條“主線”——我現在公司處于什么融資階段,從各種零散信息里抽出一條能撐起整份 BP 的核心邏輯,而不是一句空口號。第二,它要能識別不同類型的信息來源。因為我每天接觸的內容很雜,從行業趨勢到認知建模,都需要整合。

還有一個我特別強調的點是:不能把“判斷”寫成“事實”,也不能把“愿景”寫成“已驗證的結論”。這是表達上的底線。另外,我不會讓它直接生成完整 BP。我更希望它先生成逐頁的大綱和主線,我先修改,再逐步完善,最后才是成稿。

延君晨:skill 本質上是把經驗和決策邏輯封裝成可復用的模塊,有點像 SOP,但比 SOP 更靈活——它不只是固定流程,還可以包含判斷、分支和動態工具調用。而且 skill 背后不只是步驟,還隱含了兩件更重要的東西:認知框架和思維模型。所以現在寫 skill,不需要太糾結具體語法——Claude 官方已經提供了很多 best practice,你甚至可以直接讓 AI 幫你寫。但你要想清楚的是:這個 skill 解決什么問題?用什么思維模型?關鍵步驟是什么?預期結果是什么?像剛才飛宇的 BP skill,本質上就是把他的思考方式封裝成了一個可復用的經驗。未來 AI 就可以不斷復用這些經驗,去處理那些可以規?;墓ぷ?。

如果要在企業里落地類似 OpenClaw 的 agent 系統,用一句話總結經驗,你們會說什么?

張昊陽:如無必要,勿增實體。

熊飛宇:我剛剛看到有人問,memos 應該用 gateway 還是 embedding。這個問題其實不太是二選一。如果是剛開始接觸 MemOS,我更建議先用 gateway,因為接入更快、侵入性低,對現有系統改動小,特別適合先把跨 session 的記憶和統一調度跑起來。之后再考慮 embedding。

劉剛:企業落地還是要抓兩個核心:安全,以及 token 的使用效率。最終還是要看 ROI,但安全這條底線不能破。

會議推薦

QCon 全球軟件開發大會·2026 北京站將于 4 月 16 日 -18 日正式舉辦。本屆大會以“Agentic AI 時代的軟件工程重塑”為主題,聚焦 100+ 重磅議題,匯聚來自阿里、騰訊、字節跳動、小米、百度等一線科技企業與創新團隊的技術專家,圍繞 AI 工程化、系統架構與研發模式演進展開深入探討。更多詳情可掃碼或聯系票務經理 18514549229 進行咨詢。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
80W全能卷王,輕薄本也能玩3A!惠普星Book Pro 16深度測評

80W全能卷王,輕薄本也能玩3A!惠普星Book Pro 16深度測評

電腦報
2026-04-20 16:51:12
克媒:莫德里奇顴骨骨折賽季報銷,預計將戴面具出戰世界杯

克媒:莫德里奇顴骨骨折賽季報銷,預計將戴面具出戰世界杯

懂球帝
2026-04-27 22:00:51
羅永浩連發6個問句怒懟!俞敏洪反思“東方甄選多位主播離職”,有網友說“任何一個人遭遇羅永浩、董宇輝這種忘恩負義的小人都夠嗆”

羅永浩連發6個問句怒懟!俞敏洪反思“東方甄選多位主播離職”,有網友說“任何一個人遭遇羅永浩、董宇輝這種忘恩負義的小人都夠嗆”

魯中晨報
2026-04-27 17:56:12
大五座SUV市場都在演戲!嵐圖泰山X8,撕碎所有偽大五座

大五座SUV市場都在演戲!嵐圖泰山X8,撕碎所有偽大五座

科技每日推送
2026-04-23 18:25:22
車企為什么開始把新車首發押在京東上?

車企為什么開始把新車首發押在京東上?

豹變
2026-04-25 08:00:03
匈牙利一夜變天:馬扎爾開啟全面清算!歐爾班往哪走?

匈牙利一夜變天:馬扎爾開啟全面清算!歐爾班往哪走?

大江看潮
2026-04-27 09:05:55
江淮汽車:目前尊界S800面向國內銷售

江淮汽車:目前尊界S800面向國內銷售

每日經濟新聞
2026-04-27 16:27:20
演員陸毅嘴唇發紫,被網友提醒去醫院體檢;陸毅聽勸后回應:心臟沒問題,體重卻超標了,身高1米8,體重180斤,“我是方的”

演員陸毅嘴唇發紫,被網友提醒去醫院體檢;陸毅聽勸后回應:心臟沒問題,體重卻超標了,身高1米8,體重180斤,“我是方的”

浙江之聲
2026-04-27 13:09:03
吉林伊通驚現200萬豪華住宅式墓地,獨門獨戶地上地下兩層

吉林伊通驚現200萬豪華住宅式墓地,獨門獨戶地上地下兩層

大象新聞
2026-04-27 13:41:32
克宮發出最后通牒要求烏作出“痛苦決定”,德國炮彈產能超越美國

克宮發出最后通牒要求烏作出“痛苦決定”,德國炮彈產能超越美國

史政先鋒
2026-04-27 18:27:59
拆解健合:一季度數據里的抗周期基因

拆解健合:一季度數據里的抗周期基因

一點財經
2026-04-27 18:31:37
這才是提高數學成績最好的方法?。ńㄗh永久收藏)

這才是提高數學成績最好的方法!(建議永久收藏)

戶外阿毽
2026-04-27 09:46:34
這位派出所長,你瘋了嗎?

這位派出所長,你瘋了嗎?

新海言
2026-04-27 11:01:05
余承東在華為權力排名

余承東在華為權力排名

生活新鮮市
2026-04-27 18:30:53
32歲男子:一周多達9次,不幸猝死,妻子:多次勸說,他就是不聽

32歲男子:一周多達9次,不幸猝死,妻子:多次勸說,他就是不聽

川渝視覺
2026-04-27 22:04:50
開源模型橫掃21個科學任務!寬德Will聯手斯坦福清北,試錯變武器

開源模型橫掃21個科學任務!寬德Will聯手斯坦福清北,試錯變武器

機器之心Pro
2026-04-26 13:19:19
自導自演白宮記協晚宴槍擊事件?特朗普回應

自導自演白宮記協晚宴槍擊事件?特朗普回應

極目新聞
2026-04-27 19:31:28
我敢打賭99%的男人會選白衣服女孩做老婆,看腿型就知道

我敢打賭99%的男人會選白衣服女孩做老婆,看腿型就知道

朗威談星座
2026-04-26 10:47:21
隨著吳宜澤13-11勝塞爾比,火箭12-13,世錦賽8強對陣出爐附賽程

隨著吳宜澤13-11勝塞爾比,火箭12-13,世錦賽8強對陣出爐附賽程

小火箭愛體育
2026-04-28 00:09:23
上海地鐵32歲女子與66歲老太互毆后續:央媒發聲,拘留只是開始!

上海地鐵32歲女子與66歲老太互毆后續:央媒發聲,拘留只是開始!

青梅侃史啊
2026-04-27 11:38:30
2026-04-28 02:47:00
InfoQ incentive-icons
InfoQ
有內容的技術社區媒體
12309文章數 51863關注度
往期回顧 全部

科技要聞

DeepSeek V4上線三天,第一批實測出來了

頭條要聞

坐在特朗普身邊親歷槍擊案的女記者 身份非常不一般

頭條要聞

坐在特朗普身邊親歷槍擊案的女記者 身份非常不一般

體育要聞

人類馬拉松"破二"新紀元,一場跑鞋軍備競賽

娛樂要聞

黃楊鈿甜為“耳環風波”出鏡道歉:謠言已澄清

財經要聞

Meta 140億收購Manus遭中國發改委否決

汽車要聞

不那么小眾也可以 smart的路會越走越寬

態度原創

藝術
游戲
旅游
數碼
公開課

藝術要聞

他的油畫筆觸粗獷又細膩,透著一種不可言說的美!

《AC黑旗》重制版新增專屬劇情!原版編劇親自執筆

旅游要聞

不止看花 京津冀春日游花樣翻新

數碼要聞

6K/3K雙模切換!三星這款顯示器什么水平?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版