OpenAI 的 Codex 剛上線兩周,開發者們還在吐槽它"像個實習生——能干活但得盯著",官方突然甩出個新東西:Codex app server。這玩意兒說白了,就是讓你把 Codex 塞進自己的 App 里當苦力,不用再看 OpenAI 的臉色排隊等額度。
時間線很微妙。4 月中旬 Codex 首秀,云端運行、按任務計費,開發者抱怨"調個 API 比等外賣還慢";5 月 1 日 Sam Altman 親自下場,說"下周放本地版";結果 5 月 4 日就扔出這個自托管方案——從承諾到交付,72 小時。
技術細節藏著小心思。Codex app server 把 agent 拆成三塊:規劃、執行、驗證,每塊都能單獨換模型。OpenAI 的人打了個比方:以前是租精裝房,現在給你毛坯隨便改。但有個條件——你得自己備顯卡,推薦配置寫著"單任務 4GB 顯存",批量跑任務直接奔著 40GB 去了。
社區反應兩極。有人連夜 fork 代碼,把 Claude 塞進執行層玩混搭;也有人翻白眼:「這等于 OpenAI 把運維包袱甩給用戶,自己專心收模型錢。」Hacker News 熱帖算過賬:自托管省下的 API 費,半年就能買塊 RTX 4090,但調試成本沒人提。
GitHub 倉庫里有個被點了 200 多贊的 issue,用戶貼截圖說跑通第一個自動化 PR 花了 4 小時——其中 3 小時在配 Docker。OpenAI 工程師回復了個表情包,沒給文檔。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.