![]()
【CSDN 編者按】在這個動輒“上云即上萬成本”、動不動就要 K8s、微服務、AI 大模型全家桶的時代,越來越多開發者被一種“技術焦慮”裹挾:不堆棧、不燒錢,似乎就做不出像樣的產品。但本文作者恰恰提供了一個截然相反的視角——用最樸素的技術選型、最克制的資源投入,反而能跑出真實盈利的業務。
原文鏈接:https://stevehanov.ca/blog/how-i-run-multiple-10k-mrr-companies-on-a-20month-tech-stack
作者 | Steve Hanov 翻譯 | 鄭麗媛
出品 | CSDN(ID:CSDNnews)
昨晚,我又一次被拒在某個 Pitch Night(融資路演)門外,甚至還沒進入正式環節,只是初篩就被刷了。
問題壓根不在我的產品上:畢竟我的項目早已實現穩定 MRR(月度經常性收入),也擁有每天都在使用它的真實用戶。對方給我的反饋只有一句話:“你到底為什么需要融資?”——說實話,這種話我已經聽過太多次了。
![]()
![]()
把成本壓到極致,反而“勸退”VC?
我一直是那種“極致精益”的開發者。
我做過一些你可能用過的工具,比如 websequencediagrams.com;也做過一些你大概率沒聽過的垂直產品,比如 eh-trade.ca。這種對效率的執念,讓我成功實現了Bootstrap(自舉創業)——但也正因為如此,很多風投其實并不喜歡我。
原因很簡單:當你把成本壓到近乎為 0 時,本質上你就擁有了和“拿到 100 萬美元融資”一樣長的生存周期。而且,這種模式還有幾個額外好處:
● 壓力更小(沒有董事會天天盯著你)
● 架構更簡單(不會過度設計)
● 有足夠時間找到 PMF(產品市場匹配)
如果你也厭倦了當下那套臃腫的 “企業級” 技術模板,那這篇文章會完整分享我如何用幾乎可以忽略不計的成本搭建并運營公司。
![]()
服務器:別上來就 AWS,全是坑
2026 年了,很多人開發部署 Web 應用的做法還是:開通 AWS,創建 EKS 集群,配置 RDS 實例,搭建 NAT 網關。結果,還沒一個用戶訪問落地頁,每月就莫名其妙燒掉 300 美元。
正確姿勢應該是:租用一臺獨立的虛擬專用服務器(VPS)。
我做的第一件事就是入手一臺便宜又穩定的服務器。忘掉 AWS 吧,你根本用不上,它的控制臺也復雜得不行,目的就是誘導你升級付費。我常用 Linode 或 DigitalOcean,每月成本基本控制在 5~10 美元。
我知道,1GB 內存對現在的 Web 開發者來說聽起來很嚇人,但只要技術選型得當,是完全夠用的。如果想多留點緩沖空間,開個交換分區(swapfile)就行。
![]()
記住,我們的目標是“處理請求”,不是“維護復雜的基礎設施”。單臺服務器的好處很明顯:日志位置一目了然,崩潰原因能快速定位,重啟方式也非常簡單。
![]()
后端語言:別再浪費內存了
現在你有了硬件限制:只有 1GB 內存。你當然可以用 Python 或 Ruby 作為主力后端語言——但何必呢?光是啟動解釋器、管理 gunicorn 工作進程,就會耗掉你一半內存。
關于后端語言,我的選擇是 Go。
原因很現實:Go 在 Web 場景下的性能碾壓式領先,是強類型語言,而且對當下開發者來說至關重要的一點——LLM 大模型理解和生成 Go 代碼極其輕松。不僅如此,Go 真正的殺手锏是部署流程:沒有依賴地獄,不需要虛擬環境,在本地把整個應用編譯成一個靜態鏈接二進制文件,用 scp 傳到這臺 5 美元的服務器上,直接運行即可。
下面就是一段完整可上生產的 Go Web 服務代碼,無需任何臃腫框架:
} ![]()
本地 AI:你家顯卡=無限額度
如果你家里有一塊顯卡:恭喜,你已經擁有“無限 AI 調用額度”。
我在開發 eh-trade.ca 時遇到一個具體問題:需要對數千家公司做深度、定性的股市研究,總結海量季報內容。常規做法是直接調用 OpenAI API,但這樣可能要花掉數百美元的調用費用,結果還可能因為提示詞循環里的邏輯 bug,不得不整批重新跑一遍,成本直接爆炸。
所以,我的方案是:用一張從二手平臺淘來的、售價 900 美元的舊顯卡(RTX 3090,24GB 顯存)跑 VLLM。這確實是一次性的前期投入,但從此以后,我再也不用為批量 AI 處理向任何 AI 服務商支付費用了。
本地 AI 的升級路徑很清晰:
(1)從 Ollama 起步。一條命令即可啟動,能快速體驗數十種模型,非常適合提示詞迭代調試。
(2)生產環境切換 VLLM。系統跑通后,Ollama 在并發請求下會成為瓶頸,VLLM 會把 GPU 鎖定給單個模型,但基于 PagedAttention 機制,速度要快得多。可以設計系統同時發送 8 或 16 個異步請求,VLLM 會在 GPU 顯存中批量處理,16 個任務的耗時幾乎和處理單個任務差不多。
(3)進階需求用 Transformer Lab。如果需要模型預訓練或微調,Transformer Lab 能讓本地硬件部署變得更簡單。
為了管理這些本地 AI,我開發了 laconic,一個專門針對 8K 上下文窗口優化的智能研究代理。它會像操作系統的虛擬內存管理器一樣管理 LLM 上下文,把對話中無關的內容“換出”,只保留最關鍵的信息留在活躍上下文窗口中。
我還在用 llmhub,它能把任意 LLM 封裝成統一的 provider/endpoint/apikey 格式,無論模型是跑在本地還是云端,都能絲滑處理文本和圖像 IO。
![]()
多模型調用:用 OpenRouter
當然,并非所有任務都能在本地完成。例如,面對用戶直接交互的低延遲對話場景,有時你需要 Claude 3.5 Sonnet 或 GPT-4o 這種頂級模型的推理能力。
與其分別管理 Anthropic、Google、OpenAI 的賬號、API Key 和速率限制,我直接用 OpenRouter。代碼里只需要寫一套兼容 OpenAI 的接口,就能調用所有主流前沿模型。
更重要的是,它支持無縫降級路由。如果周二下午 Anthropic API 掛了(這種事經常發生),應用會自動切到等效的 OpenAI 模型,用戶完全看不到報錯頁面,我也不用寫復雜的重試邏輯。
![]()
寫代碼:別被 AI IDE 割韭菜
每周都有新的、貴得離譜的大模型發布。我總聽到開發者每月花幾百美元訂閱 Cursor、購買 Anthropic API Key,只為讓 AI 幫自己寫模板代碼。
而我全天用 Claude Opus 4.6,每月賬單還不到 60 美元——秘訣就是:利用微軟的定價策略。
我在 2023 年訂閱了 GitHub Copilot,搭配原生 VS Code 一直用到現在。Cursor 等魔改編輯器剛推出AI編碼代理時確實先進,但 Copilot Chat 總能快速追上。
有一個核心技巧可能很多人都沒發現:微軟是按“請求次數”收費的,而非按 Token 計費。要知道,一次“請求”就是我在對話框里輸入的一個 prompt,哪怕這個 prompt 讓 AI 花半小時遍歷我的整個代碼庫、梳理依賴、修改上百個文件,也只花大約 0.04 美元。
最佳實踐也很簡單:寫極其詳細、帶明確驗收標準的 prompt,讓 AI “一直跑直到沒 bug”,然后提交請求去喝杯咖啡就行,相當于微軟在幫你付這些算力錢。
![]()
數據庫:SQLite 就夠了
我啟動任何新項目,主力數據庫一律用 SQLite——先別急著反駁,這并沒有你想的那么離譜。
傳統的“企業思維”總覺得必須用獨立部署的數據庫服務,但事實是:本地 SQLite 文件通過 C 接口或內存通信,速度比通過 TCP 訪問遠程 PostgreSQL 服務器快幾個數量級。
你可能會問:“那并發怎么辦?”很多人以為 SQLite 每次寫入都會鎖整個庫,這是錯的。只需要開啟預寫日志(WAL)即可,打開數據庫時執行一次這兩條配置:
PRAGMA synchronous=NORMAL;這樣一來,問題直接解決:讀寫不互鎖。在 NVMe 硬盤上,單數據庫文件就能輕松支撐數千并發用戶。
基于 SQLite 開發最麻煩的通常是用戶認證模塊,為此我寫了一個庫:smhanov/auth,可以直接對接任意數據庫,管理用戶注冊、會話、密碼重置,還支持谷歌、Facebook、X 以及企業 SAML 登錄,沒有臃腫依賴,代碼簡潔可審計。
![]()
總結:創業不需要“豪華配置”
科技行業總在灌輸一種觀念:做正經生意需要復雜的編排服務、高額的 AWS 月費、數百萬美元的風投資金——但現實是:根本不需要。
就我來說:只用一臺 VPS、靜態編譯二進制文件、本地 GPU 跑批量 AI 任務,再加上 SQLite 的極致速度,就能以每月幾杯咖啡的成本,自行搭建具備高可擴展性的初創項目。
只有這樣,我才可以真正把時間花在解決用戶問題上,而不用天天為了燒錢速度去焦慮。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.