![]()
芯東西(公眾號:aichip001)
編譯 劉煜
編輯 陳駿達
芯東西4月15日報道,今日,博通宣布擴大與Meta的合作,計劃推出業界首款采用2nm工藝的AI計算加速器。博通將依托其XPU定制加速器平臺,與Meta聯合開發MTIA(Meta訓練與推理加速器)系列計算加速芯片的后續迭代產品。雙方計劃第一階段將為MTIA首批部署超1吉瓦(GW)規模算力,后續將逐步擴大算力部署規模。本次合作尚未披露相關金額。
![]()
▲圖為博通、Meta官宣合作(圖源:X)
Meta創始人兼首席執行官馬克?扎克伯格(Mark Zuckerberg)稱:“Meta正與博通在芯片設計、封裝與網絡領域展開全面合作,我們首期將部署超1吉瓦的定制芯片,后續逐步擴展至數吉瓦規模。”
博通總裁兼首席執行官陳福陽說道:“此次MTIA的首期部署僅僅是一個開端。”
此前博通已與Meta基于MTIA定制AI芯片建立了深度合作,本次簽訂的協議將相關合作期限延長至2029年。同時,博通總裁兼首席執行官陳福陽將卸任Meta董事會董事,轉任Meta顧問,為Meta的定制芯片路線圖提供指導,并參與規劃其未來基礎設施投資方向。
博通稱,此次與Meta的合作遠不局限硬件供應,鑒于MTIA芯片主要通過推理與低精度運算實現最優運行效率,其配套的基礎設施也需要具備近乎零延遲的性能表現。
而本次合作依托的XPU技術專為定制化AI加速器研發設計,可支持Meta在多代芯片迭代中持續優化AI基礎設施。
博通憑借高端口密度以太網交換機、光互聯產品、PCIe交換機及高速串行解串技術,能夠提升單個MTIA服務器機架內部的計算帶寬,并支持數萬個計算節點實現大容量、跨區域的網絡擴展,從而為Meta的AI算力集群提供低延遲、無阻塞以及高帶寬的網絡連接。
MTIA是Meta的AI基礎設施戰略的核心項目,其布局啟動已久。
繼早期Meta推出的MTIA 100與MTIA 200之后,該公司曾在今年3月宣布,未來兩年內將研發并部署四代全新MTIA芯片,用以支撐平臺內容排序、個性化推薦及生成式AI等核心業務的算力需求。
同月,陳福陽在博通財報電話會議上說道:“Meta的定制加速器MTIA計劃依然在推進。我們現在已經開始量產,實際上,到2027年及以后,對于下一代的XPU我們將達到數吉瓦的規模。”
結語:定制AI芯片或成主流趨勢,科技巨頭布局密集加碼
本次博通與Meta宣布達成的這項多年期、覆蓋多代產品的戰略合作,將為加快Meta AI計算基礎設施擴張提供一定助力。
定制AI芯片相較通用芯片具備更高的能效比,可在AI算力基礎設施大規模部署中有效降低芯片采購成本與電力消耗。在此背景下,不止Meta,多家企業均在持續加大定制芯片的布局與投入力度。
去年10月,博通與OpenAI達成合作,將共同部署規模達10吉瓦的定制推理AI芯片;今年1月,微軟正式發布第二代自研推理AI芯片Maia 200,該芯片已在其美國愛荷華州數據中心落地,并計劃逐步擴大部署規模;今年3月,博通又與谷歌達成長期合作,為后者生產用于訓練與推理的TPU芯片,同期Anthropic也將獲得算力規模達3.5吉瓦的TPU支持。
由此可見,在當前AI芯片賽道競爭日趨激烈的格局下,布局定制AI芯片或將成為科技企業提升算力效率和控制成本的重要趨勢。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.