![]()
Groq此次發布的LPU芯片,核心優勢在于極致的推理性能與成本控制,其采用成熟的14nm制程工藝,無需依賴先進制程即可實現高性能表現,大幅降低芯片研發與制造成本。芯片搭載230MB的SRAM內存,片上內存帶寬達到80TB/s,遠超當前主流AI芯片,能夠高效支撐大模型推理過程中的數據傳輸需求,避免因內存帶寬不足導致的算力浪費。
算力參數方面,Groq LPU芯片的整型(8位)運算速度達到750TOPs,浮點(16位)運算速度為188TFLOPs,在大模型推理場景中表現突出。據Groq官方測試數據顯示,該芯片運行主流大模型時,推理延遲大幅降低,其中運行GPT-4推理速度較英偉達H100 GPU提升10倍,運行GLM-5、Gemini 3 Pro等大模型時,推理效率同樣實現數倍提升,而芯片單臺成本僅為英偉達H100 GPU的十分之一,性價比優勢顯著。
據悉,Groq成立于2016年,由前谷歌員工Jonathan Ross創立,其核心團隊成員均來自谷歌、英偉達等頂尖科技企業,創始人Jonathan Ross曾發明驅動谷歌機器學習軟件的張量處理單元(TPU),為AlphaGo提供了核心技術支撐。此次LPU芯片的發布,是Groq首次向英偉達發起正面挑戰,憑借獨特的架構設計與成本優勢,有望在AI推理芯片市場占據一席之地。
業內分析指出,Groq LPU芯片的發布與字節跳動萬卡集群的曝光,標志著AI芯片賽道競爭進入白熱化階段。當前,英偉達憑借H100、H200等GPU芯片占據全球AI算力市場主導地位,市值已突破2.2萬億美元,但Groq、三星等企業的持續發力正在打破這一壟斷格局——三星近期已在硅谷成立新團隊,由谷歌前開發人員帶隊,專注于通用人工智能芯片研發。專家表示,AI芯片賽道的內卷將推動算力成本持續下降、性能不斷提升,為AI大模型、AI智能體等應用的規模化落地提供支撐。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.