AI芯片賽道迎來重磅突破,美國Groq公司正式發(fā)布全新AI芯片LPU,宣稱其推理速度較英偉達GPU提升10倍,而成本僅為后者的十分之一,憑借極致的性價比成為“地表最強推理芯片”,與此同時,字節(jié)跳動同步發(fā)布萬卡集群系統(tǒng)論文,進一步加劇全球AI芯片賽道的競爭內(nèi)卷,推動AI算力技術(shù)加速迭代。
![]()
AI生成
Groq此次發(fā)布的LPU芯片,核心優(yōu)勢在于極致的推理性能與成本控制,其采用成熟的14nm制程工藝,無需依賴先進制程即可實現(xiàn)高性能表現(xiàn),大幅降低芯片研發(fā)與制造成本。芯片搭載230MB的SRAM內(nèi)存,片上內(nèi)存帶寬達到80TB/s,遠超當前主流AI芯片,能夠高效支撐大模型推理過程中的數(shù)據(jù)傳輸需求,避免因內(nèi)存帶寬不足導致的算力浪費。
算力參數(shù)方面,Groq LPU芯片的整型(8位)運算速度達到750TOPs,浮點(16位)運算速度為188TFLOPs,在大模型推理場景中表現(xiàn)突出。據(jù)Groq官方測試數(shù)據(jù)顯示,該芯片運行主流大模型時,推理延遲大幅降低,其中運行GPT-4推理速度較英偉達H100 GPU提升10倍,運行GLM-5、Gemini 3 Pro等大模型時,推理效率同樣實現(xiàn)數(shù)倍提升,而芯片單臺成本僅為英偉達H100 GPU的十分之一,性價比優(yōu)勢顯著。
據(jù)悉,Groq成立于2016年,由前谷歌員工Jonathan Ross創(chuàng)立,其核心團隊成員均來自谷歌、英偉達等頂尖科技企業(yè),創(chuàng)始人Jonathan Ross曾發(fā)明驅(qū)動谷歌機器學習軟件的張量處理單元(TPU),為AlphaGo提供了核心技術(shù)支撐。此次LPU芯片的發(fā)布,是Groq首次向英偉達發(fā)起正面挑戰(zhàn),憑借獨特的架構(gòu)設計與成本優(yōu)勢,有望在AI推理芯片市場占據(jù)一席之地。
同日,字節(jié)跳動同步發(fā)布萬卡集群系統(tǒng)MegaScale論文,展示了其在AI算力基礎設施領域的重大突破。該系統(tǒng)專為訓練超過1萬個GPU規(guī)模的大型語言模型設計,在12288個GPU上訓練175B參數(shù)LLM模型時,實現(xiàn)了55.2%的模型FLOP利用率(MFU),與主流的Megatron-LM系統(tǒng)相比,MFU提高了1.34倍,大幅提升大模型訓練效率,降低訓練成本,為字節(jié)跳動自研大模型及AI應用提供強大算力支撐。
業(yè)內(nèi)分析指出,Groq LPU芯片的發(fā)布與字節(jié)跳動萬卡集群的曝光,標志著AI芯片賽道競爭進入白熱化階段。當前,英偉達憑借H100、H200等GPU芯片占據(jù)全球AI算力市場主導地位,市值已突破2.2萬億美元,但Groq、三星等企業(yè)的持續(xù)發(fā)力正在打破這一壟斷格局——三星近期已在硅谷成立新團隊,由谷歌前開發(fā)人員帶隊,專注于通用人工智能芯片研發(fā)。專家表示,AI芯片賽道的內(nèi)卷將推動算力成本持續(xù)下降、性能不斷提升,為AI大模型、AI智能體等應用的規(guī)模化落地提供支撐。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.