5月28日,DeepSeek官方突然宣布DeepSeek R1模型已完成小版本試升級,歡迎前往官方網頁、APP、小程序測試(打開深度思考),API 接口和使用方式保持不變。
![]()
據DeepSeek小助手在官方微信群中的發言,DeepSeek已完成一次“小版本試升級”的操作,并通知用戶可以開始測試。但公司未披露此次升級的具體細節。
據用戶反饋,DeepSeek升級后的模型, 思維鏈 (CoT) 的行為似乎發生了顯著變化。
![]()
也有用戶總結了更新后的幾個亮點,其中包括:現在像Google模型一樣進行深度推理;改進寫作任務——更自然、格式更好;獨特的推理風格——不僅快速,而且深思熟慮;長時間思考——每個任務最多30-60分鐘。
![]()
DeepSeekR1模型已完成小版本試升級后,深圳企業又傳出好消息:
近日,華為在MoE模型訓練領域再進一步,重磅推出參數規模高達7180億的全新模型——盤古Ultra MoE,這是一個全流程在昇騰AI計算平臺上訓練的準萬億MoE模型。在業界權威大模型榜單SuperCLUE最新公布的2025年5月排行榜上,位居千億參數量以內大模型排行并列國內第一。
5月29日,騰訊旗下騰訊元寶、ima、搜狗輸入法、QQ瀏覽器、騰訊文檔、騰訊地圖、騰訊樂享等多款AI應用宣布接入DeepSeek R1-0528,用戶在不同產品中,選擇DeepSeek模型R1深度思考,都可以體驗到DeepSeek R1-0528最新的深度思考、編程和長文本處理等能力,免費且不限量使用。同時,騰訊云也上線了DeepSeek-R1-0528,企業和開發者可以通過騰訊云直接調用API接口,獲得穩定優質的服務;也可以通過騰訊云智能體開發平臺內置的RAG、工作流和智能體開發的能力,快速搭建專屬智能體應用;此外,還能通過騰訊云TI平臺對模型進行精調。
華為算力煉出業界一流大模型
近日,華為在MoE模型訓練領域再進一步,重磅推出參數規模高達7180億的全新模型——盤古Ultra MoE,這是一個全流程在昇騰AI計算平臺上訓練的準萬億MoE模型。華為同時發布盤古Ultra MoE模型架構和訓練方法的技術報告,披露眾多技術細節,充分體現了昇騰在超大規模MoE訓練性能上的跨越。
訓練超大規模和極高稀疏性的 MoE 模型極具挑戰,訓練過程中的穩定性往往難以保障。針對這一難題,盤古團隊在模型架構和訓練方法上進行了創新性設計,成功地在昇騰平臺上實現了準萬億 MoE 模型的全流程訓練。在模型架構上,盤古團隊提出Depth-Scaled Sandwich-Norm(DSSN)穩定架構和TinyInit小初始化的方法,在昇騰平臺上實現了超過18TB數據的長期穩定訓練。此外,他們還提出了 EP loss 負載優化方法,這一設計不僅保證了各個專家之間能保持較好的負載均衡,也提升了專家的領域特化能力。同時,盤古Ultra MoE使用了業界先進的MLA和MTP架構,在預訓練和后訓練階段都使用了Dropless訓練策略,實現了超大規模MoE架構在模型效果與效率之間的最佳平衡。
在訓練方法上,華為團隊首次披露在昇騰CloudMatrix 384超節點上,高效打通大稀疏比MoE強化學習(RL)后訓練框架的關鍵技術,使RL后訓練進入超節點集群時代。同時,在5月初發布的預訓練系統加速技術基礎上,在不到一個月的時間內,華為團隊又完成了一輪迭代升級,包括:適配昇騰硬件的自適應流水掩蓋策略,進一步優化算子執行序,進一步降低Host-Bound以及提升EP通信的掩蓋;自適應管理內存優化策略的開發;數據重排實現DP間Attention負載均衡;以及昇騰親和的算子優化,這些技術實現萬卡集群預訓練MFU由30%大幅提升至 41%。此外,近期發布的盤古Pro MoE大模型,在參數量僅為720億,激活160億參數量的情況下,通過動態激活專家網絡的創新設計,實現了以小打大的優異性能,甚至可以媲美千億級模型的性能表現。在業界權威大模型榜單SuperCLUE最新公布的2025年5月排行榜上,位居千億參數量以內大模型排行并列國內第一。
華為盤古Ultra MoE和盤古Pro MoE系列模型的發布,證明華為不僅完成了國產算力+國產模型的全流程自主可控的訓練實踐,同時在集群訓練系統的性能上也實現了業界領先。這意味著國產AI基礎設施的自主創新能力得到了進一步驗證,為中國人工智能產業的發展提供了一顆“定心丸”。
(內容來源:深圳特區報記者 周雨萌)
一天內完成更新!騰訊多款產品接入DeepSeek R1最新版
5月29日,騰訊元寶、ima、搜狗輸入法、QQ瀏覽器等多款產品再次迎來升級,率先接入深度思考模型DeepSeek R1-0528最新版,多項能力全面提升。
· 推理能力大幅提升,代碼水平更強
· 寫作表現更有人味,格式更規范
· 思考不僅快,還有條理、講邏輯,同時支持長時間思考
![]()
用戶打開元寶(電腦版、網頁版可搶先體驗)、ima(任意版本)、搜狗輸入法(Windows版 側邊欄)、QQ瀏覽器(任意版本),選擇DeepSeek模型R1深度思考,即可免費不限量使用。

元寶

ima

搜狗輸入法

QQ瀏覽器
從模型開源到上線僅用不到1天時間。
我們將堅持雙模型驅動,選擇更好、更先進的模型,并第一時間部署上線。
始終為用戶打造「好用的AI」。
(內容來源:騰訊)
來源: 深圳夢 (微信號ID:SZeverything) 綜合
為偉大思想而生!
AI+時代,互聯網思想(wanging0123),
第一必讀自媒體
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.