![]()
(AI云資訊消息)Cerebras的AI芯片首次獲得主流采用,而采用者正是OpenAI。OpenAI透露,他們最新的Codex模型除了使用英偉達的算力外,還增加了另一家算力供應商。
在最新的Codex版本發布中,OpenAI透露,GPT-5.3-Codex-Spark模型正是由Cerebras的AI芯片提供動力,使用該硬件相比其他方案的優勢在于推理任務中的低延遲。在此次算力選擇中,OpenAI間接宣告了在推理領域出現了一個可以抗衡英偉達的對手。
主流Codex模型與這里的Spark變體之間的區別在于,OpenAI稱設計目的在于即刻完成工作。通過優化流程管道,借助Cerebras的硬件,GPT-5.3-Codex-Spark在模型延遲方面取得了重大改進。OpenAI聲稱,此版本將首字生成時間即從輸入到輸出第一個字的時間縮短了50%,這無疑是一個驚人的數據。Codex-Spark運行在Cerebras的晶圓級引擎3(Wafer Scale Engine 3)上。晶圓級引擎3采用臺積電5nm制程節點,AI優化的可編程處理核心架構,約有4萬億晶體管數量,90萬個AI優化核心,內存帶寬達21PB/s,屬于完整的300mm晶圓級芯片。
至于OpenAI為何選擇Cerebras作為此次的算力供應商,原因有多方面。但其中最重要的一點是,借助晶圓級引擎3,OpenAI獲得了驚人的內存帶寬,這對于編碼這類內存密集型任務至關重要。這也是為什么Codex-Spark能夠實現每秒1000次事務處理,據稱其響應速度可以媲美人類結對編程伙伴的原因。考慮到Blackwell架構更側重于批量處理而非低延遲,若在英偉達的基礎設施上訓練Spark模型,在經濟上并不劃算,而這正是Cerebras在此場景下更具優勢的原因。
當然在大規模推理方面,英偉達在Token經濟中還是占據主導地位。英偉達Blackwell架構已將Token成本降低多達10倍。OpenAI的薩欽·卡蒂(SachinKatti)表示,與Cerebras的合作是為了增加互補能力,但在OpenAI的算力競賽中,其核心忠誠度仍然完全傾向于英偉達。不過,通過Codex-Spark可以清晰地看到,當前的瓶頸在于延遲。而在硬件層面,英偉達的技術棧并未準備好主導這一領域。
鑒于Cerebras只是該領域內一個強大的競爭對手,此外還有來自ASIC制造商以及像AMD這樣的競爭者所提供的新興解決方案,看看推理市場未來將如何定位英偉達,只能拭目以待了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.