一個10人開發團隊,每月光是把代碼"喂"給AI就要燒掉1.5萬到4萬美元——還沒開始寫一行新功能。這不是估算,是正在發生的事。當AI代理被塞給原始代碼而非結構化信息時,token賬單就會失控。
CoreStory的做法是:把代碼庫變成一個持久的"代碼智能模型"(CIM),讓AI代理拿到的是精準的結構化上下文,而非整堆原始文件。實測數據顯示,Claude Code搭配CoreStory后,輸入token減少73%,運行時間減半,成本降低67%,輸出質量反而更好。
![]()
問題出在LLM沒有跨會話記憶。每次交互從零開始,開發者讓AI重構一個模塊時,模型需要的不只是那個文件,還包括依賴的schema、調用的工具函數、參與的數據流、足夠的架構背景來避免引入回歸問題。這些上下文動輒幾萬token——而模型昨天已經處理過一遍了。
更隱蔽的成本在輸出端。多數AI服務商對輸出token收費是輸入的3到5倍。當模型缺乏恰當上下文,會生成更長、更猶豫的回復,需要更多輪修正。每輪修正都要重新攝入上下文、生成更多輸出,賬單滾雪球。真正貴的不是發出去的token,是為了修結果而生成的token。
CoreStory的CIM相當于給代碼庫建了持久索引。AI代理不再重復攝入整個子系統,而是按需調取結構化摘要。這意味著同樣的開發任務,上下文傳輸量斷崖式下跌,輸出更精準,修正輪次減少,時間和費用同步壓縮。
值得注意的是,Claude Code等工具本身支持CLAUDE.md、技能文件等持久化配置來攜帶上下文。但當代碼庫規模達到50萬token級別,這些手工維護的配置難以覆蓋全貌,重復攝入的浪費依然巨大。結構化智能層和原始代碼之間的效率差距,在大型代碼庫上被急劇放大。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.