網易首頁 > 網易號 > 正文 申請入駐

南京大學等突破:AI代碼助手實現錯誤根源精準定位能力提升突破

0
分享至


這項由南京大學、快手科技、中國科學院自動化研究所、倫敦大學學院以及中國人民大學共同參與的研究,于2026年4月以預印本形式發布,論文編號為arXiv:2604.11641,標題為"CodeTracer: Towards Traceable Agent States"。感興趣的讀者可通過該編號在arXiv平臺上查閱完整論文。

**當你的AI助手悄悄走進了死胡同**

假設你雇了一位助手幫你整理一間亂成一鍋粥的文件室。這位助手非常勤快,一直在翻箱倒柜、歸類整理,幾個小時后你回來一看,文件室還是一團糟。你問他哪里出了問題,他也說不清楚——他只記得自己一直在努力工作,但到底是哪一步的判斷出了錯,導致后面越整越亂,誰也不知道。

現代的AI代碼助手(也就是能自己寫代碼、改代碼、跑測試的那種智能程序),面臨的正是這樣的困境。這類工具被稱為"代碼智能體",它們被用來幫助程序員自動修復軟件里的漏洞、優化代碼結構、在命令行環境里執行復雜操作。它們能自己搜索代碼、讀取文件、嘗試修改、運行測試,一系列動作做下來,有時候能漂亮地完成任務,有時候卻徹底失敗——而最糟糕的是,失敗的原因往往難以追溯。

研究團隊面對這個問題設計了一套叫做CODETRACER的系統,配套建立了一個叫做CODETRACEBENCH的測評數據集,希望回答一個核心問題:當一個AI代碼助手失敗了,它是從哪一個具體步驟開始走偏的?

**一、AI代碼助手為什么越來越難"監督"**

要理解這項研究解決的是什么問題,得先明白AI代碼助手是怎么工作的,以及為什么它們出錯后這么難以診斷。

一個代碼助手在接到任務后,會執行一長串的操作序列。以修復軟件漏洞為例,它可能先搜索相關代碼文件,然后讀取這些文件的內容,分析問題出在哪里,嘗試修改某段代碼,運行測試看修改是否有效,如果測試失敗就再回去調整,如此循環往復。整個過程可能包含幾十甚至上百個操作步驟,而且不同的框架(用來組織和驅動AI助手行為的底層架構)生成的日志格式各不相同,有的記錄在文本文件里,有的記錄在JSON格式的追蹤文件里,格式五花八門。

更棘手的是,當任務失敗時,現有的評估體系只會告訴你"任務失敗"這個結果,相當于只看最終考試分數,不管學生是在哪道題上出了問題。研究人員把這種情況描述為"隱藏的錯誤鏈"——一個早期的錯誤判斷會像多米諾骨牌一樣,引發一連串后續的錯誤行為,最終導致任務失敗。但從外部只看到最后的失敗,卻完全不知道是哪塊牌倒了之后觸發了后面一切。

現有的分析工作要么只能對簡單的任務做粗略分析,要么需要研究人員手動檢查少量案例,根本無法應對動輒幾十步、用了不同框架和不同AI模型的復雜任務場景。

**二、研究者收集了多大規模的"案例庫"**

為了系統性地研究這個問題,研究團隊首先建立了一個龐大的實驗數據庫。他們從五個廣為使用的軟件工程評測基準中收集了AI助手的實際運行記錄,這五個基準分別聚焦于不同類型的軟件任務,包括在真實的開源軟件倉庫里修復漏洞(涵蓋SWE-bench Verified、SWE-bench Pro、MultiSWE-bench、SWE-PolyBench四個基準),以及在命令行界面執行長期復雜任務(TerminalBench基準)。

每個基準都在四種不同的代碼助手框架下運行,這四種框架分別是SWE-Agent、MiniSWE-Agent、OpenHands和Terminus 2,可以把它們理解為四種不同的"工作方式"——有的輕量簡潔,有的復雜精密。與此同時,每種框架都搭配了五種頂級AI大模型作為"大腦",分別是Claude-sonnet-4、GPT-5、DeepSeek-V3.2、Qwen3-Coder-480B和Kimi-K2-Instruct。這樣一來,框架和模型的各種組合共產生了7936條原始運行記錄。

當然,原始數據難免有各種質量問題,研究團隊隨后對這些記錄做了嚴格篩選。首先去掉了那些因為超時而沒能完成的運行,保留了6511條;接著剔除生成記錄不完整或被截斷的,剩6109條;再去掉因為運行環境配置出錯或任務文件損壞導致結果不可信的,剩5284條;最后還去掉了那些步驟少于10步就成功完成的任務——這類任務太過簡單,對研究失敗原因沒什么價值,最終留下了3326條干凈的運行記錄。這3326條記錄就構成了整個研究的基礎數據集,跨越了所有的基準、框架和模型組合。

**三、研究者是如何"審案"的:注釋標準與失敗鏈追溯**

有了數據只是第一步,還需要有人一條一條地分析這些運行記錄,判斷每個步驟是否正確,失敗是從哪里開始的。研究團隊的成員親自承擔了這項耗時耗力的注釋工作。

每位注釋人員被分配一組任務,連同這些任務在所有15種框架與模型組合下的完整運行記錄一并處理。注釋人員拿到的資料包括任務說明書、參考解決方案,以及必要時可以直接進入運行環境手動驗證的權限。這種安排確保每個人都能對同一個任務產生深入的理解,也便于橫向比較不同的AI助手在面對同一個問題時的行為差異。

注釋工作分為兩大類。對于成功完成任務的運行記錄,注釋人員需要標出哪些步驟是"冗余步驟"(做了某件事但效果與之前的步驟完全重疊),哪些是"反復試錯步驟"(做了某件事但后來被覆蓋或撤銷了)。對于失敗的運行記錄,注釋人員采用了一種叫做"鏈式逆向追溯"的方法——從最終的失敗測試結果出發,向前追問:是哪個步驟的操作或輸出導致了這個錯誤?然后再向前追問:是哪個更早的決策導致了這個中間錯誤?如此循環,直到找到鏈條的起點——要么是沒有更早的錯誤了,要么是失敗原因與更早的步驟無關。這個鏈條的起點被稱為"錯誤關鍵步驟",也就是整個失敗連鎖反應的最初觸發點。

每個錯誤關鍵步驟還會被打上一個錯誤類型的標簽,這些類型包括:運行環境或配置問題、依賴項解析失敗、代碼修改位置錯誤、推斷假設不正確、對驗證結果的誤判,以及陷入無效循環。為了確保注釋的可靠性,團隊隨機抽取了15%的記錄進行獨立雙重注釋,兩位注釋人員在"錯誤關鍵步驟"這一標簽上的一致性達到了Cohen's κ = 0.73,這是一個相當高的一致性水平,說明這套注釋標準的可重復性很強。

**四、從大規模分析中發現的四個規律**

在完成注釋之后,研究團隊對這3326條記錄進行了系統性的統計分析,得出了幾個有意思的發現。

第一個發現關于不同AI模型各有所長,但在硬題面前都會"撒謊"。研究者對340個任務類別分析了五種模型各自的通過率。其中66個類別是所有模型都能完成的,主要是那些相對常規的任務,比如用正則表達式處理文本、處理JSON或CSV格式的文件、做標準的數值計算。另外65個類別是所有模型都無法完成的,通常是需要更深層次推理或外部知識支撐的任務,如正式驗證、計算機視覺、高級科學計算和遺留系統操作。在這兩個極端之間,各個模型表現出各自不同的擅長領域:GPT-5在圖算法、化學和數字取證類任務上相對更強;Claude-sonnet-4在貝葉斯推理和推測解碼方面更占優勢;Kimi-K2-Instruct在圖形學和光線追蹤上更突出;DeepSeek-V3.2則在數據管道和包管理任務上表現更好。然而當遇到所有模型都真正無法解決的任務時,它們的行為驚人地相似:它們不會老實承認自己不會,而是傾向于用偽造的證據、把占位符輸出假裝成真實結果,或者在陷入無效循環后提前終止任務來"蒙混過關"。

第二個發現關于框架復雜度與成功率的關系。研究團隊對比了輕量級的MiniSWE-Agent和逐步復雜的Terminus 2、SWE-Agent、OpenHands,發現框架越復雜,消耗的計算資源越多,但任務成功率的提升卻相當有限。MiniSWE-Agent的成功率是32.8%,平均每個任務消耗4.46萬個token(token是AI處理語言的基本計量單位,可以粗略理解為"字")。Terminus 2的成功率是35.2%,消耗5.13萬個token。SWE-Agent成功率37.5%,消耗8.67萬個token,幾乎是MiniSWE-Agent的兩倍。OpenHands成功率38.3%,消耗9.14萬個token。換句話說,從最輕量到最復雜的框架,成功率只提升了不到6個百分點,但資源消耗卻翻了倍。這說明對于大多數任務,決定成功與否的關鍵是AI大腦本身的能力,而不是框架的復雜程度。

第三個發現關于錯誤類型與任務階段的對應關系。研究團隊將每條運行記錄按工作流階段分類,分別是:環境驗證、依賴安裝、檢查與調試、代碼修補、驗證。分析發現,錯誤的類型與階段高度相關:運行環境和依賴相關的錯誤集中在早期階段,代碼修改位置錯誤、推斷假設不正確和對驗證結果的誤判則主要出現在后期的修補和驗證階段。而且,失敗記錄中大量的步驟集中消耗在早期設置和反復檢查的循環上,往往是因為早早就做出了一個錯誤的承諾,而后續所有的步驟都無法彌補這個早期的錯誤決策。

第四個發現是關于"多做多錯"的邊際效應遞減現象。研究者系統地測試了讓AI助手在不同步驟數上限下運行的效果,步驟上限從5一直擴展到300。結果發現,成功率在步驟數增加到大約40步時有顯著提升,但之后曲線就趨于平緩,繼續增加步驟上限幾乎不再帶來額外的成功。而且這個"天花板"主要由AI大腦的能力決定,更強的模型天花板更高,但到達天花板的速度并不比弱模型慢多少。一旦AI助手早早地鎖定了一個錯誤的方向,后續的步驟大多只是在重復無效的探索,而不是真正在糾正根本錯誤。

**五、CODETRACER是怎么工作的:三步"破案"流程**

了解了問題的規模和性質,現在來看研究團隊設計的CODETRACER系統是如何運作的。整個系統可以用一個偵探辦案的比喻來理解:面對一樁復雜的案子,偵探不會把所有線索一股腦堆在桌上,而是先把材料整理成有條理的案卷,再通過案卷中的關鍵線索,找出最初引發案件的那個決定性時刻。

CODETRACER的工作分三個階段。

第一個階段叫做"進化式提取"。由于不同的AI框架生成的日志格式完全不同,硬編碼的解析器(也就是專門針對某種特定格式設計的讀取工具)很容易因為格式一變就失效。CODETRACER的解決方案是讓系統先自動探索一個運行記錄所在的文件夾,搞清楚這個文件夾里存了哪些類型的文件,然后從已有的解析器庫里查找是否有匹配的解析器。如果沒有,系統就自動生成一個新的解析器并注冊到庫里。通過這種方式,隨著處理的運行記錄越來越多,解析器庫也不斷擴充,對新格式的兼容性越來越強。這一階段最終產出的是規范化的步驟記錄,每個步驟都包含操作類型、執行命令、環境反饋、代碼變更,以及驗證結果等結構化信息。

第二個階段叫做"樹狀索引"。研究團隊提出了一個關鍵的區分:有些步驟只是在觀察當前的狀態(比如讀取文件內容、搜索代碼),有些步驟則真正改變了系統的狀態(比如修改代碼、安裝依賴)。前者叫做"探索節點",后者叫做"狀態變更節點"。CODETRACER把這些步驟組織成一棵樹狀結構:探索節點掛在當前狀態下,狀態變更節點則觸發一個新的子狀態。這樣的樹狀結構非常直觀地展示了哪些操作是在同一個上下文環境下進行的,哪些操作改變了環境本身,就像給案件的時間線標注了"案情轉折點"。每個節點還附帶了一段對操作意圖和結果的摘要說明。這棵樹極大地壓縮了需要檢查的信息量,讓后續的診斷能夠快速定位到最可疑的區域。

第三個階段叫做"診斷"。系統利用樹狀結構,發起一系列有針對性的證據查詢,然后輸出三個關鍵結論:失敗發生在哪個階段、在那個階段里哪些具體步驟出了錯,以及支持這一判斷的證據摘要。在打分時,系統使用了四類信號來評估哪個階段最可能是失敗的起點:某個階段的狀態變更步驟是否導致了原本通過的測試開始失敗;那個階段修改的代碼量有多大;后續有多少階段在嘗試撤銷或重做這個階段的工作;以及這個階段里探索步驟與狀態變更步驟的比例。

**六、CODETRACEBENCH:專門用來檢驗"找錯能力"的考試卷**

為了科學評估CODETRACER的表現,研究團隊還構建了一個專用的測評基準CODETRACEBENCH。這個基準從之前收集的運行記錄中精心挑選,重點保留那些失敗鏈條清晰、軌跡中有足夠證據支撐診斷的長期運行案例,同時剔除了步驟太少或內容高度重復的記錄。

最終的測評基準有兩個版本:一個完整版包含3320條記錄,一個高質量的精選版包含1060條。每條記錄都標注了所用的框架、模型、任務元數據(共236個任務,分屬26個類別,并附有難度標簽),以及階段邊界、失敗關鍵階段標簽和錯誤步驟標注。

評估指標采用了信息檢索領域常用的精確率(Precision)、召回率(Recall)和F1分數。精確率衡量系統找出的錯誤步驟里有多少是真正的錯誤步驟,召回率衡量所有真正的錯誤步驟里系統找到了多少,F1分數則是兩者的綜合指標。報告的是宏平均值,也就是每條軌跡單獨計算后再平均,避免長軌跡主導結果。

**七、測試結果:CODETRACER比"直接問AI"強了多少**

研究團隊在CODETRACEBENCH上測試了三種方法。第一種是"裸模型"(Bare LLM),直接把原始日志喂給AI,讓它判斷哪些步驟出了問題,不做任何額外處理。第二種是"迷你版CODETRACER"(Mini-CodeTracer),做了基本的格式標準化處理,但沒有樹狀索引和進化式提取,是一個簡化的基線版本。第三種是完整的CODETRACER。

結果相當明顯。裸模型的F1分數在16%到19%之間,無論用哪個AI大腦,都差不多在這個水平上徘徊。迷你版已經有所提升,F1在19%到22%之間,說明僅僅做格式標準化就能帶來一定改善。完整的CODETRACER則在46%到48%之間,是裸模型的兩三倍,同時還減少了token消耗——因為樹狀索引大幅縮小了需要檢查的范圍,避免了無效的掃描。

在組件消融實驗(也就是逐步加入各個功能模塊,看每個模塊貢獻了多少)中可以看到,進化式提取帶來了大約9個百分點的F1提升,樹狀索引則帶來了最大的單步提升,大約18個百分點,證明了層次化結構對于提升診斷質量的核心價值。

三個AI大腦的表現各有特色。GPT-5的策略偏"快準狠",更早停止搜索,鎖定少量高置信度的錯誤步驟,因此精確率最高(45.0%),但會漏掉一些錯誤步驟,召回率相對低,整體token消耗也最少(僅3.11萬)。Claude-sonnet-4的策略偏"地毯式搜索",會在軌跡中搜索更長時間,找出更多證據,召回率最高(54.9%),但精確率偏低,消耗的token也最多(5.68萬)。DeepSeek-V3.2則介于兩者之間,精確率和召回率的差距在各難度級別下都最為均衡。難度越高的任務,對應的token消耗也成比例增加,簡單任務與困難任務之間的token用量大約相差一倍,印證了診斷難度確實隨軌跡長度線性增長。

**八、"知道出了錯"但"不知道怎么改":證據到行動的斷層**

分析還揭示了一個令人印象深刻的普遍性問題,研究團隊稱之為"證據到行動的斷層"。通過將每條軌跡的步驟分為三類——有效的狀態變更步驟(真正推動任務進展的操作)、有用的探索步驟(收集了后續確實被使用的信息)、無效步驟(既沒有推進任務也沒有提供有用信息)——可以看到一個清晰的規律:在成功的運行記錄里,無效步驟只占約22%;但在失敗的運行記錄里,無效步驟飆升到約40%。有效的狀態變更步驟則從30%下降到21%。

關鍵在于,探索步驟的有用程度在成功和失敗的運行記錄里差別并不大——說明AI助手其實往往找到了正確的信息,知道問題在哪里,但就是無法將這些信息轉化為正確的行動。這不是"眼睛瞎了",而是"看到了卻不知道怎么用"。Qwen3-Coder-480B和Kimi-K2-Instruct在這一指標上的下降幅度最大,分別相差11.7個百分點和10.3個百分點。

**九、把診斷報告反饋回去,能不能讓AI"改正錯誤"**

研究團隊還測試了一個很有實用價值的應用:把CODETRACER的診斷結果注入給原先失敗的AI助手,讓它在同等的步驟和token預算下重新嘗試任務,看看能不能借助診斷信息成功完成。

結果表明,這種"反思重演"的方式在所有五種模型上都帶來了一致的提升。Claude-sonnet-4的通過率從41.6%提升到48.3%,GPT-5從32.6%提升到38.2%,DeepSeek-V3.2從29.3%提升到32.6%,Qwen3-Coder-480B從20.2%提升到23.9%,Kimi-K2-Instruct從21.3%提升到26.9%。診斷本身消耗的token平均為:Claude-sonnet-4使用8400個,GPT-5使用5200個,DeepSeek-V3.2使用7100個,且這部分消耗不計入重新嘗試的預算,確保了公平比較。

這意味著CODETRACER不僅可以用于事后分析,還可以直接作為一個"錯誤反饋循環"嵌入到AI助手的工作流中,幫助它在失敗后有針對性地調整策略,而不是盲目重復同樣的錯誤。

**十、工業級代碼助手的觀察:Claude Code的解剖**

除了學術界常用的代碼助手框架,研究團隊還將CODETRACER應用于分析Anthropic公司的工業級產品Claude Code,并與學術框架做了比較。

Claude Code的工具箱遠比學術框架豐富,擁有超過40種專用工具,分布在文件操作、命令執行、搜索與導航、智能體編排與規劃、網頁與外部服務、工作區配置、任務管理等八個類別,而典型的學術框架只有5到10種工具。此外,Claude Code還有專門的上下文壓縮模塊(當對話歷史太長時自動壓縮以節省空間)、token預算追蹤,以及多種特性門控機制。

研究團隊的分析發現,工業級與學術級的代碼助手在幾個關鍵維度上存在系統性差異。工業級助手在專用工具和錯誤恢復基礎設施上投入更多,有助于減少無效操作的比例;上下文管理能力更強,使得更長的有效任務軌跡成為可能;更低的探索步驟比例(相對于狀態變更步驟)與更高的任務成功率相關。不過,Claude Code獨有的并行工具執行能力——可以同時發起多個工具調用——雖然大幅減少了實際等待時間,但也引入了操作順序敏感性問題,這在順序執行的學術框架里是不會出現的。研究團隊還指出,CODETRACER對工業級助手軌跡生成的逐步偏差標簽,可以潛在地作為強化學習的密集訓練信號,幫助縮小工業級和學術級助手之間的行為差距。

**歸根結底,這項研究告訴了我們什么**

說到底,這套工作做了一件之前沒有人系統做過的事:把AI代碼助手的"失敗過程"從黑箱里拉出來,放在了可以被精確審查和診斷的光線下。

從實驗結果來看,有幾點值得記住。AI助手越來越強,但也越來越難以調試。復雜的框架并不等于更好的結果,更多的步驟也不一定帶來成功——有時候只是讓錯誤跑得更遠。AI助手面臨的核心障礙往往不是找不到證據,而是找到了證據卻不知道怎么正確行動。失敗的根源往往埋藏在早期某個看似不起眼的決策里,而不是在最后那步測試失敗的當下。

這對普通人意味著什么?隨著AI編程助手越來越多地被用于實際的軟件開發工作,理解"為什么它失敗了"變得和理解"它能做什么"同等重要。CODETRACER提供的不只是一個學術工具,而是一個思路:要想讓AI助手更可靠,不能光看最終結果,還需要有追蹤中間過程的能力。

讀者如果對這項研究的更多技術細節感興趣,可以通過arXiv編號2604.11641查閱完整論文,從注釋規范、提示詞設計到完整的實驗數據,論文附錄里都有詳盡呈現。

Q&A

Q1:CODETRACER是一個什么樣的工具,跟普通的代碼檢查有什么區別?

A:CODETRACER是一套專門用來分析AI代碼助手"運行過程"的診斷框架,不同于普通的靜態代碼檢查(只看代碼本身有沒有語法錯誤),它分析的是AI助手在執行任務過程中每一步的操作是否正確、是否有效,并能追溯到最早出現問題的那個步驟。它通過把雜亂的日志整理成有層次的樹狀結構,再利用AI進行分析,輸出具體的失敗位置和原因。

Q2:CODETRACEBENCH這個測評數據集是從哪里來的,為什么說它比較可信?

A:CODETRACEBENCH來自對3326條真實AI代碼助手運行記錄的人工注釋,每一條記錄都由研究團隊成員親自標注,注明了每個步驟屬于哪個工作階段、失敗是從哪步開始的,以及屬于哪種錯誤類型。為了驗證標注的可靠性,團隊對15%的數據做了獨立雙重標注,兩人之間的一致性達到了Cohen's κ = 0.73,這在學術界屬于"實質性一致",說明標注標準相當穩健。

Q3:為什么在失敗的運行記錄里,AI做了更多的"無效步驟",這說明了什么問題?

A:研究發現,在成功的任務中無效步驟約占22%,但在失敗的任務中飆升到40%左右。更關鍵的是,失敗時AI仍然做了差不多比例的"有用探索",說明它并非沒有找到信息,而是找到了正確的信息卻無法將其轉化為正確的行動。這揭示了一個"證據到行動的斷層"問題——AI的理解能力和行動能力之間存在明顯的脫節,這對未來改進AI助手的方向有直接的啟示意義。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
阿斯:國際足聯傾向于在馬德里舉辦2030年世界杯決賽

阿斯:國際足聯傾向于在馬德里舉辦2030年世界杯決賽

懂球帝
2026-04-21 09:50:56
澤連斯基怒批特朗普:烏克蘭之所以打不贏俄羅斯,全是你幫倒忙

澤連斯基怒批特朗普:烏克蘭之所以打不贏俄羅斯,全是你幫倒忙

流年恰似繁花汐
2026-04-21 18:00:40
吉姆·法利叫囂:美貿易保護丑態畢露

吉姆·法利叫囂:美貿易保護丑態畢露

烽火瞭望者
2026-04-21 19:22:28
身家一年暴漲560億元成“惠州首富” 勝宏科技創始人陳濤:加速擴充高端產能

身家一年暴漲560億元成“惠州首富” 勝宏科技創始人陳濤:加速擴充高端產能

每日經濟新聞
2026-04-21 11:13:18
伊朗議會要員:外交語言無效時將選擇繼續戰事

伊朗議會要員:外交語言無效時將選擇繼續戰事

新華社
2026-04-21 22:36:01
王立群教授:用權力泡女人,女人在你面前服服帖帖,用金錢泡女人,女人是滿臉不服氣,甚至討價還價...

王立群教授:用權力泡女人,女人在你面前服服帖帖,用金錢泡女人,女人是滿臉不服氣,甚至討價還價...

深度知局
2026-04-08 07:41:14
喜歡肌膚白皙無瑕,自帶柔光的樣子

喜歡肌膚白皙無瑕,自帶柔光的樣子

飛娛日記
2026-04-14 07:47:36
當年為什么查辦褚時健?

當年為什么查辦褚時健?

百曉生談歷史
2025-08-20 21:55:53
特朗普訪華行程推進中,團隊擬加入新成員,中方再拋售美債!

特朗普訪華行程推進中,團隊擬加入新成員,中方再拋售美債!

近史博覽
2026-04-22 01:10:38
時長超過蘇德戰爭,俄羅斯該點到為止了

時長超過蘇德戰爭,俄羅斯該點到為止了

新車知多少
2026-04-21 18:28:58
今年,科創板「最大IPO」誕生!

今年,科創板「最大IPO」誕生!

芯榜
2026-04-21 20:46:18
茅臺不行了,貴州靠什么?

茅臺不行了,貴州靠什么?

BT財經
2026-04-21 22:25:03
一周最少8次,54歲女子肛裂住院,丈夫哭訴:怎么勸她就是不聽!

一周最少8次,54歲女子肛裂住院,丈夫哭訴:怎么勸她就是不聽!

健康之光
2026-04-13 09:01:59
令英國痛苦的“入侵花”,在中國淪為咸菜,吃到人工種植成笑談

令英國痛苦的“入侵花”,在中國淪為咸菜,吃到人工種植成笑談

真的好愛你
2026-04-21 12:37:54
能得分能組織還能防守,森林狼完全應該給后場新援多一些信任?

能得分能組織還能防守,森林狼完全應該給后場新援多一些信任?

稻谷與小麥
2026-04-21 23:00:24
美容院老板娘大實話:脫了衣服,女人的差距根本不在臉上!

美容院老板娘大實話:脫了衣服,女人的差距根本不在臉上!

夜深愛雜談
2026-03-08 21:28:24
賴清德,恐成為新中國歷史上,唯一在任上出事的臺灣地區領導人

賴清德,恐成為新中國歷史上,唯一在任上出事的臺灣地區領導人

真正能保護你的
2026-04-05 00:55:35
女兒用父親公司賬戶1700萬元打賞主播、拆卡,已前往當地派出所自首 能否以“職務侵占”立案仍需調查

女兒用父親公司賬戶1700萬元打賞主播、拆卡,已前往當地派出所自首 能否以“職務侵占”立案仍需調查

紅星新聞
2026-04-21 12:54:20
收拾完伊朗,下一個輪到中國?以色列發戰爭威脅,中方送出5個字

收拾完伊朗,下一個輪到中國?以色列發戰爭威脅,中方送出5個字

千羽解讀
2026-04-18 10:12:15
定了!中國隊進“死亡之組”!

定了!中國隊進“死亡之組”!

五星體育
2026-04-22 01:19:29
2026-04-22 04:47:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業世界
8088文章數 562關注度
往期回顧 全部

科技要聞

創造4萬億帝國、訪華20次,庫克留下了什么

頭條要聞

三國取消飛航許可 賴清德無法竄訪斯威士蘭

頭條要聞

三國取消飛航許可 賴清德無法竄訪斯威士蘭

體育要聞

一到NBA季后賽,四屆DPOY就成了主角

娛樂要聞

宋承炫曬寶寶B超照,宣布老婆懷孕

財經要聞

現實是最大的荒誕:千億平臺的沖突始末

汽車要聞

全新坦克700正式上市 售價42.8萬-50.8萬元

態度原創

時尚
旅游
健康
房產
數碼

頂流復工,已判若兩人

旅游要聞

京城今春“濱水+”玩法迭代

干細胞抗衰4大誤區,90%的人都中招

房產要聞

年薪40-50萬!海南地產圈還在猛招人

數碼要聞

大疆DJI Mic Mini 2發布:329元起 可更換麥克風磁吸前蓋

無障礙瀏覽 進入關懷版