![]()
OpenAI的Codex團隊再次發力。繼不到兩周前發布專用智能體的Codex Mac應用,以及一周前推出更快更可控的GPT-5.3-Codex大語言模型后,OpenAI再次推出重磅產品。
今天,該公司宣布推出GPT-5.3-Codex-Spark的研究預覽版,這是GPT-5.3-Codex的精簡版本,專為Codex中的實時編程而構建。公司報告稱,它生成代碼的速度快15倍,同時"在現實世界編程任務中保持高度能力"。不過這其中有個問題,稍后我會詳細說明。
Codex-Spark最初僅向每月200美元的Pro tier用戶開放,在預覽期間有單獨的頻率限制。如果按照OpenAI通常的Codex發布策略,Plus用戶將是下一批,其他層級用戶也會很快獲得訪問權限。
OpenAI表示,Codex-Spark是其"第一個專門為與Codex實時協作而設計的模型——進行針對性編輯、重構邏輯或完善界面,并立即看到結果"。
讓我們簡單分析一下。大多數智能體AI編程工具需要一段時間來響應指令。在我的編程工作中,我可以給出一個指令(這適用于Codex和Claude Code),然后去做別的事情一段時間。有時只需要幾分鐘,其他時候可能需要足夠長的時間去吃午飯。
Codex-Spark顯然能夠更快地響應,允許快速持續的工作。這可以大大加快開發速度,特別是對于簡單的提示和查詢。
我知道當我向AI問一個超級簡單的問題時,應該得到立即回應,但仍然需要等待五分鐘才能得到答案,這偶爾會讓我感到沮喪。
通過將響應性作為核心特性,該模型支持更流暢的對話式編程。有時,使用編程智能體感覺更像老式的批處理風格編程。這個設計旨在克服這種感覺。
GPT-5.3-Codex-Spark并非要取代基礎的GPT-5.3-Codex。相反,Spark被設計來補充那些為持續數小時、數天或數周的長期自主任務而構建的高性能AI模型。
Codex-Spark模型專為響應性與智能性同樣重要的工作而設計。它支持任務中途的中斷和重定向,實現緊密的迭代循環。
這很吸引我,因為我總是在給AI分配任務十秒鐘后想到更多要告訴它的內容。
Spark模型默認進行輕量級、針對性的編輯,進行快速調整而不是大幅度改動。除非特別請求,否則它也不會自動運行測試。
OpenAI已經能夠在完整的請求-響應管道中減少延遲(更快的周轉時間)。它說每次客戶端/服務器往返的開銷減少了80%。每Token開銷減少了30%。通過會話初始化和流式優化,首個Token的時間減少了50%。
另一個在迭代過程中改善響應性的機制是引入持久的WebSocket連接,這樣連接就不必持續重新協商。
今年1月,OpenAI宣布與AI芯片制造商Cerebras建立合作關系。我們一直在關注Cerebras。我們報道了其推理服務、與DeepSeek的合作、提升Meta的Llama模型性能的工作,以及Cerebras發布的超大AI芯片,旨在將大語言模型性能翻倍。
GPT-5.3-Codex-Spark是上個月宣布的OpenAI/Cerebras合作關系的第一個里程碑。Spark模型運行在Cerebras的Wafer Scale Engine 3上,這是一種高性能AI芯片架構,通過將所有計算資源放在一個煎餅大小的晶圓級處理器上來提升速度。
通常,半導體晶圓包含一堆處理器,在生產過程的后期會被切開并放入各自的封裝中。Cerebras晶圓只包含一個芯片,使其成為一個非常非常大的處理器,具有非常非常緊密耦合的連接。
據Cerebras的首席技術官兼聯合創始人Sean Lie說:"GPT-5.3-Codex-Spark最讓我們興奮的是與OpenAI和開發者社區合作,發現快速推理的可能性——新的交互模式、新的用例和根本不同的模型體驗。這個預覽只是開始。"
現在,這里有一些問題。
首先,OpenAI表示"當需求量大時,您可能會看到訪問速度變慢或臨時排隊,因為我們要平衡所有用戶的可靠性"。所以,快速,除非太多人想要快速。
關鍵問題來了。該公司說:"在評估智能體軟件工程能力的兩個基準SWE-Bench Pro和Terminal-Bench 2.0上,GPT-5.3-Codex-Spark表現不如GPT-5.3-Codex,但可以在短時間內完成任務。"
上周,在GPT-5.3-Codex發布時,OpenAI表示GPT-5.3-Codex是其根據已發布的準備框架分類為網絡安全"高能力"的第一個模型。另一方面,該公司承認GPT-5.3-Codex-Spark"沒有合理的機會達到我們網絡安全高能力的準備框架閾值"。
請仔細思考這些陳述,親愛的讀者。這個AI沒那么聰明,但它確實能以更快的速度做那些不那么聰明的事情。15倍的速度確實不容小覷。但你真的希望AI以15倍的速度犯編程錯誤并產生不太安全的代碼嗎?
讓我告訴你這一點。當你有成千上萬憤怒的用戶拿著火把和干草叉沖向你,因為你突然用新版本破壞了他們的軟件時,"嗯,足夠好了"真的不夠好。問我怎么知道的。
上周,我們了解到OpenAI使用Codex來編寫Codex。我們也知道它使用它能夠更快地構建代碼。所以該公司顯然有一個更快但不那么聰明的用例。當我更好地理解這是什么以及Spark的適用范圍時,我會告訴你。
OpenAI分享說它正在為其Codex模型努力實現推理和實時工作的雙重模式。
該公司說:"Codex-Spark是朝著具有兩種互補模式的Codex邁出的第一步:更長期的推理和執行,以及用于快速迭代的實時協作。隨著時間推移,這些模式將融合。"
它設想的工作流模型很有趣。據OpenAI稱,最終的意圖是"Codex可以讓你保持緊密的交互循環,同時將長期運行的工作委派給后臺的子智能體,或者當你需要廣度和速度時將任務扇出到多個并行模型,這樣你就不必預先選擇單一模式。"
本質上,它正在努力實現兩全其美。但現在,你可以選擇快速或準確。這是一個艱難的選擇。但準確的正在變得更準確,現在,至少當你想要的時候你可以選擇快速(只要你記住權衡,并且你在支付Pro層級費用)。
你呢?你會為了15倍更快的編程響應而犧牲一些智能和安全能力嗎?實時、可中斷的AI協作者的想法吸引你,還是你更喜歡為嚴肅開發工作提供更深思熟慮、更高準確性的模型?
你對Codex-Spark和完整GPT-5.3-Codex模型之間的網絡安全區別有多擔心?如果你是Pro用戶,你會根據任務在"快速"和"智能"模式之間切換嗎?
Q&A
Q1:GPT-5.3-Codex-Spark相比GPT-5.3-Codex有什么優勢?
A:GPT-5.3-Codex-Spark生成代碼的速度比GPT-5.3-Codex快15倍,專為實時編程設計,能夠進行針對性編輯、重構邏輯并立即看到結果。它支持任務中途的中斷和重定向,實現緊密的迭代循環,讓編程工作更加流暢和對話式。
Q2:Spark模型的性能權衡是什么?
A:雖然Spark模型速度快15倍,但在SWE-Bench Pro和Terminal-Bench 2.0兩個評估智能體軟件工程能力的基準測試中,表現不如GPT-5.3-Codex。更重要的是,Spark模型在網絡安全方面沒有達到"高能力"閾值,這意味著它可能產生不太安全的代碼。
Q3:誰可以使用Codex-Spark模型?
A:Codex-Spark目前僅向每月200美元的Pro tier用戶開放,在預覽期間有單獨的頻率限制。按照OpenAI通常的發布策略,Plus用戶將是下一批獲得訪問權限的用戶,其他層級用戶也會隨后獲得訪問權限。當需求量大時,用戶可能會遇到訪問速度變慢或臨時排隊的情況。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.