![]()
【CSDN 編者按】在這個(gè)動(dòng)輒“上云即上萬(wàn)成本”、動(dòng)不動(dòng)就要 K8s、微服務(wù)、AI 大模型全家桶的時(shí)代,越來(lái)越多開(kāi)發(fā)者被一種“技術(shù)焦慮”裹挾:不堆棧、不燒錢(qián),似乎就做不出像樣的產(chǎn)品。但本文作者恰恰提供了一個(gè)截然相反的視角——用最樸素的技術(shù)選型、最克制的資源投入,反而能跑出真實(shí)盈利的業(yè)務(wù)。
原文鏈接:https://stevehanov.ca/blog/how-i-run-multiple-10k-mrr-companies-on-a-20month-tech-stack
作者 | Steve Hanov 翻譯 | 鄭麗媛
出品 | CSDN(ID:CSDNnews)
昨晚,我又一次被拒在某個(gè) Pitch Night(融資路演)門(mén)外,甚至還沒(méi)進(jìn)入正式環(huán)節(jié),只是初篩就被刷了。
問(wèn)題壓根不在我的產(chǎn)品上:畢竟我的項(xiàng)目早已實(shí)現(xiàn)穩(wěn)定 MRR(月度經(jīng)常性收入),也擁有每天都在使用它的真實(shí)用戶。對(duì)方給我的反饋只有一句話:“你到底為什么需要融資?”——說(shuō)實(shí)話,這種話我已經(jīng)聽(tīng)過(guò)太多次了。
![]()
![]()
把成本壓到極致,反而“勸退”VC?
我一直是那種“極致精益”的開(kāi)發(fā)者。
我做過(guò)一些你可能用過(guò)的工具,比如 websequencediagrams.com;也做過(guò)一些你大概率沒(méi)聽(tīng)過(guò)的垂直產(chǎn)品,比如 eh-trade.ca。這種對(duì)效率的執(zhí)念,讓我成功實(shí)現(xiàn)了Bootstrap(自舉創(chuàng)業(yè))——但也正因?yàn)槿绱耍芏囡L(fēng)投其實(shí)并不喜歡我。
原因很簡(jiǎn)單:當(dāng)你把成本壓到近乎為 0 時(shí),本質(zhì)上你就擁有了和“拿到 100 萬(wàn)美元融資”一樣長(zhǎng)的生存周期。而且,這種模式還有幾個(gè)額外好處:
● 壓力更小(沒(méi)有董事會(huì)天天盯著你)
● 架構(gòu)更簡(jiǎn)單(不會(huì)過(guò)度設(shè)計(jì))
● 有足夠時(shí)間找到 PMF(產(chǎn)品市場(chǎng)匹配)
如果你也厭倦了當(dāng)下那套臃腫的 “企業(yè)級(jí)” 技術(shù)模板,那這篇文章會(huì)完整分享我如何用幾乎可以忽略不計(jì)的成本搭建并運(yùn)營(yíng)公司。
![]()
服務(wù)器:別上來(lái)就 AWS,全是坑
2026 年了,很多人開(kāi)發(fā)部署 Web 應(yīng)用的做法還是:開(kāi)通 AWS,創(chuàng)建 EKS 集群,配置 RDS 實(shí)例,搭建 NAT 網(wǎng)關(guān)。結(jié)果,還沒(méi)一個(gè)用戶訪問(wèn)落地頁(yè),每月就莫名其妙燒掉 300 美元。
正確姿勢(shì)應(yīng)該是:租用一臺(tái)獨(dú)立的虛擬專用服務(wù)器(VPS)。
我做的第一件事就是入手一臺(tái)便宜又穩(wěn)定的服務(wù)器。忘掉 AWS 吧,你根本用不上,它的控制臺(tái)也復(fù)雜得不行,目的就是誘導(dǎo)你升級(jí)付費(fèi)。我常用 Linode 或 DigitalOcean,每月成本基本控制在 5~10 美元。
我知道,1GB 內(nèi)存對(duì)現(xiàn)在的 Web 開(kāi)發(fā)者來(lái)說(shuō)聽(tīng)起來(lái)很嚇人,但只要技術(shù)選型得當(dāng),是完全夠用的。如果想多留點(diǎn)緩沖空間,開(kāi)個(gè)交換分區(qū)(swapfile)就行。
![]()
記住,我們的目標(biāo)是“處理請(qǐng)求”,不是“維護(hù)復(fù)雜的基礎(chǔ)設(shè)施”。單臺(tái)服務(wù)器的好處很明顯:日志位置一目了然,崩潰原因能快速定位,重啟方式也非常簡(jiǎn)單。
![]()
后端語(yǔ)言:別再浪費(fèi)內(nèi)存了
現(xiàn)在你有了硬件限制:只有 1GB 內(nèi)存。你當(dāng)然可以用 Python 或 Ruby 作為主力后端語(yǔ)言——但何必呢?光是啟動(dòng)解釋器、管理 gunicorn 工作進(jìn)程,就會(huì)耗掉你一半內(nèi)存。
關(guān)于后端語(yǔ)言,我的選擇是 Go。
原因很現(xiàn)實(shí):Go 在 Web 場(chǎng)景下的性能碾壓式領(lǐng)先,是強(qiáng)類型語(yǔ)言,而且對(duì)當(dāng)下開(kāi)發(fā)者來(lái)說(shuō)至關(guān)重要的一點(diǎn)——LLM 大模型理解和生成 Go 代碼極其輕松。不僅如此,Go 真正的殺手锏是部署流程:沒(méi)有依賴地獄,不需要虛擬環(huán)境,在本地把整個(gè)應(yīng)用編譯成一個(gè)靜態(tài)鏈接二進(jìn)制文件,用 scp 傳到這臺(tái) 5 美元的服務(wù)器上,直接運(yùn)行即可。
下面就是一段完整可上生產(chǎn)的 Go Web 服務(wù)代碼,無(wú)需任何臃腫框架:
} ![]()
本地 AI:你家顯卡=無(wú)限額度
如果你家里有一塊顯卡:恭喜,你已經(jīng)擁有“無(wú)限 AI 調(diào)用額度”。
我在開(kāi)發(fā) eh-trade.ca 時(shí)遇到一個(gè)具體問(wèn)題:需要對(duì)數(shù)千家公司做深度、定性的股市研究,總結(jié)海量季報(bào)內(nèi)容。常規(guī)做法是直接調(diào)用 OpenAI API,但這樣可能要花掉數(shù)百美元的調(diào)用費(fèi)用,結(jié)果還可能因?yàn)樘崾驹~循環(huán)里的邏輯 bug,不得不整批重新跑一遍,成本直接爆炸。
所以,我的方案是:用一張從二手平臺(tái)淘來(lái)的、售價(jià) 900 美元的舊顯卡(RTX 3090,24GB 顯存)跑 VLLM。這確實(shí)是一次性的前期投入,但從此以后,我再也不用為批量 AI 處理向任何 AI 服務(wù)商支付費(fèi)用了。
本地 AI 的升級(jí)路徑很清晰:
(1)從 Ollama 起步。一條命令即可啟動(dòng),能快速體驗(yàn)數(shù)十種模型,非常適合提示詞迭代調(diào)試。
(2)生產(chǎn)環(huán)境切換 VLLM。系統(tǒng)跑通后,Ollama 在并發(fā)請(qǐng)求下會(huì)成為瓶頸,VLLM 會(huì)把 GPU 鎖定給單個(gè)模型,但基于 PagedAttention 機(jī)制,速度要快得多。可以設(shè)計(jì)系統(tǒng)同時(shí)發(fā)送 8 或 16 個(gè)異步請(qǐng)求,VLLM 會(huì)在 GPU 顯存中批量處理,16 個(gè)任務(wù)的耗時(shí)幾乎和處理單個(gè)任務(wù)差不多。
(3)進(jìn)階需求用 Transformer Lab。如果需要模型預(yù)訓(xùn)練或微調(diào),Transformer Lab 能讓本地硬件部署變得更簡(jiǎn)單。
為了管理這些本地 AI,我開(kāi)發(fā)了 laconic,一個(gè)專門(mén)針對(duì) 8K 上下文窗口優(yōu)化的智能研究代理。它會(huì)像操作系統(tǒng)的虛擬內(nèi)存管理器一樣管理 LLM 上下文,把對(duì)話中無(wú)關(guān)的內(nèi)容“換出”,只保留最關(guān)鍵的信息留在活躍上下文窗口中。
我還在用 llmhub,它能把任意 LLM 封裝成統(tǒng)一的 provider/endpoint/apikey 格式,無(wú)論模型是跑在本地還是云端,都能絲滑處理文本和圖像 IO。
![]()
多模型調(diào)用:用 OpenRouter
當(dāng)然,并非所有任務(wù)都能在本地完成。例如,面對(duì)用戶直接交互的低延遲對(duì)話場(chǎng)景,有時(shí)你需要 Claude 3.5 Sonnet 或 GPT-4o 這種頂級(jí)模型的推理能力。
與其分別管理 Anthropic、Google、OpenAI 的賬號(hào)、API Key 和速率限制,我直接用 OpenRouter。代碼里只需要寫(xiě)一套兼容 OpenAI 的接口,就能調(diào)用所有主流前沿模型。
更重要的是,它支持無(wú)縫降級(jí)路由。如果周二下午 Anthropic API 掛了(這種事經(jīng)常發(fā)生),應(yīng)用會(huì)自動(dòng)切到等效的 OpenAI 模型,用戶完全看不到報(bào)錯(cuò)頁(yè)面,我也不用寫(xiě)復(fù)雜的重試邏輯。
![]()
寫(xiě)代碼:別被 AI IDE 割韭菜
每周都有新的、貴得離譜的大模型發(fā)布。我總聽(tīng)到開(kāi)發(fā)者每月花幾百美元訂閱 Cursor、購(gòu)買 Anthropic API Key,只為讓 AI 幫自己寫(xiě)模板代碼。
而我全天用 Claude Opus 4.6,每月賬單還不到 60 美元——秘訣就是:利用微軟的定價(jià)策略。
我在 2023 年訂閱了 GitHub Copilot,搭配原生 VS Code 一直用到現(xiàn)在。Cursor 等魔改編輯器剛推出AI編碼代理時(shí)確實(shí)先進(jìn),但 Copilot Chat 總能快速追上。
有一個(gè)核心技巧可能很多人都沒(méi)發(fā)現(xiàn):微軟是按“請(qǐng)求次數(shù)”收費(fèi)的,而非按 Token 計(jì)費(fèi)。要知道,一次“請(qǐng)求”就是我在對(duì)話框里輸入的一個(gè) prompt,哪怕這個(gè) prompt 讓 AI 花半小時(shí)遍歷我的整個(gè)代碼庫(kù)、梳理依賴、修改上百個(gè)文件,也只花大約 0.04 美元。
最佳實(shí)踐也很簡(jiǎn)單:寫(xiě)極其詳細(xì)、帶明確驗(yàn)收標(biāo)準(zhǔn)的 prompt,讓 AI “一直跑直到?jīng)] bug”,然后提交請(qǐng)求去喝杯咖啡就行,相當(dāng)于微軟在幫你付這些算力錢(qián)。
![]()
數(shù)據(jù)庫(kù):SQLite 就夠了
我啟動(dòng)任何新項(xiàng)目,主力數(shù)據(jù)庫(kù)一律用 SQLite——先別急著反駁,這并沒(méi)有你想的那么離譜。
傳統(tǒng)的“企業(yè)思維”總覺(jué)得必須用獨(dú)立部署的數(shù)據(jù)庫(kù)服務(wù),但事實(shí)是:本地 SQLite 文件通過(guò) C 接口或內(nèi)存通信,速度比通過(guò) TCP 訪問(wèn)遠(yuǎn)程 PostgreSQL 服務(wù)器快幾個(gè)數(shù)量級(jí)。
你可能會(huì)問(wèn):“那并發(fā)怎么辦?”很多人以為 SQLite 每次寫(xiě)入都會(huì)鎖整個(gè)庫(kù),這是錯(cuò)的。只需要開(kāi)啟預(yù)寫(xiě)日志(WAL)即可,打開(kāi)數(shù)據(jù)庫(kù)時(shí)執(zhí)行一次這兩條配置:
PRAGMA synchronous=NORMAL;這樣一來(lái),問(wèn)題直接解決:讀寫(xiě)不互鎖。在 NVMe 硬盤(pán)上,單數(shù)據(jù)庫(kù)文件就能輕松支撐數(shù)千并發(fā)用戶。
基于 SQLite 開(kāi)發(fā)最麻煩的通常是用戶認(rèn)證模塊,為此我寫(xiě)了一個(gè)庫(kù):smhanov/auth,可以直接對(duì)接任意數(shù)據(jù)庫(kù),管理用戶注冊(cè)、會(huì)話、密碼重置,還支持谷歌、Facebook、X 以及企業(yè) SAML 登錄,沒(méi)有臃腫依賴,代碼簡(jiǎn)潔可審計(jì)。
![]()
總結(jié):創(chuàng)業(yè)不需要“豪華配置”
科技行業(yè)總在灌輸一種觀念:做正經(jīng)生意需要復(fù)雜的編排服務(wù)、高額的 AWS 月費(fèi)、數(shù)百萬(wàn)美元的風(fēng)投資金——但現(xiàn)實(shí)是:根本不需要。
就我來(lái)說(shuō):只用一臺(tái) VPS、靜態(tài)編譯二進(jìn)制文件、本地 GPU 跑批量 AI 任務(wù),再加上 SQLite 的極致速度,就能以每月幾杯咖啡的成本,自行搭建具備高可擴(kuò)展性的初創(chuàng)項(xiàng)目。
只有這樣,我才可以真正把時(shí)間花在解決用戶問(wèn)題上,而不用天天為了燒錢(qián)速度去焦慮。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.