![]()
芯東西(公眾號:aichip001)
編譯 劉煜
編輯 陳駿達
芯東西3月20日消息,今天,據(jù)路透社最新報道,英偉達與AWS(亞馬遜云科技)達成合作,從今年開始,到2027年底以前,英偉達將向AWS出售100萬顆GPU以及包含Spectrum系列網(wǎng)絡(luò)芯片和Groq芯片在內(nèi)的多款產(chǎn)品。
英偉達與AWS尚未披露這筆交易的財務(wù)細節(jié)。
此前,英偉達創(chuàng)始人兼CEO黃仁勛稱,預(yù)計英偉達Rubin與Blackwell的兩條產(chǎn)品線的銷售規(guī)模將達到1萬億美元(約合人民幣6.89萬億元)。
而本次AWS與英偉達簽訂的合作訂單,正是1萬億美元銷售規(guī)模的組成部分。
英偉達加速計算副總裁Ian Buck稱:“推理運算難度極大,極其復(fù)雜。想要在推理領(lǐng)域做到頂尖,單靠一款芯片遠遠不夠。我們實際上會用到全部七款芯片。”
AWS計劃將英偉達Groq芯片與該公司另外六款芯片搭配使用,以實現(xiàn)更高效的AI系統(tǒng)為用戶生成答案、執(zhí)行任務(wù)的推理運算過程。
該協(xié)議還包括將英偉達Connect X與Spectrum X網(wǎng)絡(luò)設(shè)備部署至AWS的數(shù)據(jù)中心。
Ian Buck稱:“當然,他們?nèi)詴^續(xù)使用自有設(shè)備,但我們正展開合作,針對AI領(lǐng)域的關(guān)鍵工作負載及頭部客戶,與亞馬遜云科技共同部署Connect X與Spectrum X設(shè)備。”
此舉意義重大,因為AWS的數(shù)據(jù)中心長期以來一直使用其自主研發(fā)、歷經(jīng)多年打磨的定制化網(wǎng)絡(luò)設(shè)備。
同時,AWS將結(jié)合高性能專用網(wǎng)絡(luò)接口AWS EFA與自研的云原生AI訓(xùn)練芯片Trainium,并搭載英偉達用于加速分布式推理場景下的數(shù)據(jù)傳輸、同時簡化不同硬件之間的傳輸復(fù)雜度的NIXL(英偉達推理傳輸庫)技術(shù),進一步提升采用解耦架構(gòu)的大語言模型的推理速度與互聯(lián)效率。
此外,AWS還將利用云上托管大數(shù)據(jù)平臺AWS EMR與英偉達GPU加速數(shù)據(jù)分析處理。
英偉達的高效開源大語言模型Nemotron 3 Super模型也即將登陸AWS推出的全托管生成式AI服務(wù)平臺Bedrock平臺,同時擴展該平臺對英偉達Nemotron系列模型的支持。
結(jié)語:AI基建熱潮持續(xù),英偉達深度綁定下游客戶
AI的爆火為云服務(wù)商提供了更廣的市場,同時驅(qū)使云服務(wù)商加大算力投入。本次亞馬遜云科技與英偉達達成長期芯片采購協(xié)議,旨在為其云端AI大模型的訓(xùn)練與推理提供更充足的算力支撐。
此前,英偉達向荷蘭云服務(wù)提供商Nebius投資20億美元,加速Nebius構(gòu)建行業(yè)領(lǐng)先的全棧AI云平臺。英偉達將通過優(yōu)先提供最新一代加速計算平臺,全力支持Nebius在2030年底前建成總?cè)萘砍^5吉瓦的AI基礎(chǔ)設(shè)施。
當前,云服務(wù)商與AI算力領(lǐng)域頭部企業(yè)協(xié)作,依托高效算力支撐,推動云服務(wù)與數(shù)據(jù)中心擴建加速落地,持續(xù)提升AI大模型的推理效率,為夯實AI基礎(chǔ)設(shè)施建設(shè)提供助力。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.