![]()
![]()
新聞要點:
英特爾? 至強? 處理器持續為Google Cloud AI、推理及通用工作負載提供算力支持。
雙方擴大合作,共同開發基于定制專用集成電路(ASIC)的基礎設施處理單元(IPU),以實現在大規模環境中提升效率、利用率和性能。
合作進一步強化了CPU和IPU在現代異構AI系統中的核心地位。
美國加利福尼亞州圣克拉拉,2026年4月9日 – 英特爾公司(納斯達克股票代碼:INTC)與Google今日宣布一項為期多年的合作,雙方將共同推進下一代AI和云基礎設施的發展,從而進一步強化CPU和IPU在擴展現代異構AI系統中的關鍵作用。
隨著AI應用的加速普及,基礎設施正變得日益復雜且異構化,這促使業界更加依賴CPU來承擔編排調度、數據處理及系統級性能優化等任務。本次合作,英特爾和Google將圍繞多代英特爾? 至強? 處理器展開協同優化,以提升Google全球基礎設施的性能、能效和總體擁有成本。
AI并非僅靠加速器,而是運行在完整的系統之上。CPU正是這些系統的核心。
Google Cloud將繼續部署英特爾? 至強? 處理器在跨工作負載優化中,其中包括采用最新英特爾? 至強? 6處理器的C4和N4實例。這些平臺支持廣泛的工作負載——從大規模AI訓練的協調,到對延遲敏感的推理,再到通用計算。
與此同時,英特爾和Google正進一步聯合開發基于定制ASIC的IPU。這些可編程加速器可將網絡、存儲和安全功能從主機CPU工作負載中轉移,從而提高利用率和效率,并改善超大規模AI環境中性能表現的可預測性。
IPU是現代數據中心架構的關鍵組成部分。通過接管傳統上由CPU處理的基礎設施任務,IPU有助于釋放更多算力資源,并使云服務提供商能夠更高效地進行擴展,而無需增加整體系統復雜性。英特爾至強CPU與IPU共同構成一個緊密集成的平臺,平衡了通用計算與專門的基礎設施加速能力,從而提供更高效、更靈活且可擴展性更強的AI系統。
推動性能與效率大規模提升
英特爾首席執行官陳立武表示:“AI正在重塑基礎設施的構建和擴展方式。實現AI的規模化部署,不僅需要加速器,還需要均衡的系統。CPU與IPU正是滿足現代AI工作負載對性能、效率與靈活性需求的關鍵所在。”
Google高級副總裁兼AI基礎設施首席技術官Amin Vahdat表示:“從訓練編排到推理和部署,CPU和基礎設施加速始終是AI系統的基石。英特爾作為我們近二十年來信賴的合作伙伴,其至強產品路線圖讓我們有信心能夠持續滿足工作負載在性能與效率方面日益增長的需求。”
為下一波AI浪潮奠定基礎
此次擴展的合作體現了雙方共同推動AI時代開放、可擴展基礎設施發展的共同承諾。通過將通用計算與專用基礎設施加速相結合,英特爾和Google正在促成更均衡的AI系統設計——在提升利用率、降低復雜度的同時,實現更高效的可擴展性。
雙方將共同為下一代AI驅動的云服務夯實基礎,持續助力全球企業、開發者和用戶實現創新突破。
—— 芯榜 ——
芯榜成立于 2015 年,是半導體垂直領域的產業媒體與數字化服務平臺。全網覆蓋超 100 萬垂直行業用戶,核心提供專業榜單發布、原創訪談、產業報告、峰會活動及研究咨詢等服務。已合作近千家半導體生態企業,聯動多家基金公司與產業媒體,助力硬科技產業發展。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.