11月4日,由中國信息通信研究院組織召開的“存力中國行”北京站在信通院順利舉行。活動通過座談會和實地調研的形式,深入探討AI時代下先進存力賦能AI大模型發展的支撐作用。
中國信息通信研究院首席專家石友康出席研討會并致辭,中國信息通信研究院云大所總工程師郭亮主持。中國移動云能力中心項目總師周宇,華為數據存儲產品線戰略與業務發展部總裁王旭東,北京硅基流動科技有限公司解決方案總監唐安波發表主題演講。
![]()
當前,AI推理在各行各業大規模使用,大模型數量開始收斂,推理應用快速增長,Token調用量爆發式增長,推理成本持續攀升。進入“大模型落地元年”,各行各業不再滿足于擁有一個龐大的模型,而是迫切需要將模型能力無縫融入到實際業務場景中,如投研分析、卷宗分析、智能客服、醫療影像輔助診斷等。這些場景對Token的消耗越來越大,特別是在AI推理的性能指標中,都是以“Token數”為量綱。AI的到來意味著“Token經濟”的時代也到來了。近兩年AI技術快速發展,當前雖已在文檔處理等場景體現價值,但仍需解決推理效率、存力等突出問題,而存儲對大模型訓練與推理效果至關重要。
座談會上,石友康深刻闡述了當前AI規模化應用推進,推理環節的成本、效率、質量問題凸顯,先進存力成為提升AI推理效能、控制成本的關鍵。當前,國家高度重視先進存力發展,在《算力基礎設施高質量發展行動計劃》等政策中明確提出“加速存力技術研發應用”、“持續提升存儲產業能力”、“推動存算網協同發展”,為產業發展指明了方向。信通院在政策研究、標準制定、測試服務等方面開展多項工作,并聯合產業鏈企業成立“算力產業發展方陣先進存力AI推理工作組”,同時提出了三點建議:鼓勵前沿存儲技術研發創新,推動存算運深度融合,加強存算協同產業生態建設,呼吁業界同仁凝聚共識,共同推動我國存算協同發展。
周宇分享了面向推理的存儲技術趨勢與實踐,圍繞推理挑戰、存儲破局及趨勢判斷展開。當前推理面臨KVCache存儲需求升級、多模態數據協同、存算協同帶寬不足、負載潮汐性及成本控制等挑戰。移動云針對性采用分層緩存調度、高速數據互聯技術提升帶寬、多模數據專屬存儲與標準化、架構池化重組等技術破局,還通過高密全閃存儲、數據縮減、自研SPU高密服務器提高存儲效能和降低成本。未來趨勢上,移動云推動存儲從被動存儲轉向智算協同,分階段落地高密全閃存儲、數據高速互聯、存算一體等技術,長遠構建池化多體存儲體系,同時強調技術整合與生態協同。
王旭東介紹了AI時代,IT基礎設施能力面臨三大挑戰:“管不好” 的數據、“喂不飽” 的算力、“降不下”的成本。推理數據來源多樣難以形成高質量、可持續供應的數據集,存儲系統的帶寬和IOPS(每秒讀寫次數)不足,導致GPU等昂貴算力資源長時間空閑。傳統存儲架構難以兼顧高吞吐、低時延及異構數據融合的需求,造成業務發展瓶頸,阻礙AI應用落地。華為針對AI推理訓練研發的UCM推理記憶數據管理技術在行業落地中的核心作用,通過“集中高質數據、提速AI訓練、優化推理效能”三個角度,打造AI推理加速解決方案。
唐安波在會上圍繞大模型推理“推不動、推得慢、推得貴”問題展開分享,硅基流動構建的AI infra工具鏈,核心推理框架適配多模態模型與國內外算力,適配昇騰并優化DeepSeek模型實現性價比提升。從推理框架延伸至MaaS服務平臺,部署主流開源模型,通過推理加速和API向開發者提供服務,聚焦提升算力利用率。解決方案上,結合UCM技術卸載KVCache釋放顯存、提升性能,還通過智能網關優化調度、彈性擴縮容應對長上下文等痛點,基于存儲的KVCache方案可大幅提升系統吞吐。
座談會后,與會專家走進科大訊飛、華為北京研究所達芬奇展廳,實地調研存力技術如何促進AI推理應用、AI推理框架、先進存力和智能算力協同發展,助力AI普惠應用,推動我國存儲產業高質量發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.