本文來源:時(shí)代周報(bào) 作者:朱成呈
一年前的春節(jié)前夜,DeepSeek-R1橫空出世,引發(fā)全球人工智能行業(yè)的強(qiáng)烈反應(yīng)。中國大模型的能力邊界由此被重估,如今同樣的時(shí)間窗口再次被點(diǎn)燃。
DeepSeek據(jù)稱將于2月中旬推出新一代旗艦?zāi)P蚔4,強(qiáng)化編程能力與復(fù)雜推理。梁文鋒也再次成為科技圈屏息等待的焦點(diǎn)人物。但這一次,春節(jié)流量的聚光燈不再只打在一家企業(yè)身上。
過去一周,中國人工智能行業(yè)進(jìn)入少見的密集發(fā)布期。從2月11日深夜智譜GLM-5的突發(fā)上線,到2月12日MiniMax M2.5的緊跟入局,再到字節(jié)跳動(dòng)帶著工業(yè)級視頻模型Seedance 2.0亮相,試圖重新定義視頻生成的物理邊界,各大廠商仿佛達(dá)成一種默契:既然無法繞過DeepSeek帶來的壓力,那就選擇在它成名的時(shí)刻發(fā)起反擊。連一向節(jié)奏穩(wěn)健的阿里,也將Qwen 3.5的發(fā)布窗口鎖定在春節(jié)前后。
密集發(fā)布的背后,并非簡單的節(jié)奏巧合,而是一次集體性的能力展示——在同一個(gè)注意力峰值時(shí)段,完成技術(shù)實(shí)力與市場姿態(tài)的集中表達(dá)。
但更重要的變化,并不在大模型本身,而在場景價(jià)值敘事。
與一年前相比,大模型行業(yè)已明顯進(jìn)入“下半場”。單純的參數(shù)規(guī)模和單點(diǎn)性能不再構(gòu)成唯一競爭維度,多模態(tài)、Agent 架構(gòu)、模型上下文協(xié)議(Model Context Protocol,MCP)、Multi-Agent 協(xié)同機(jī)制,以及真實(shí)業(yè)務(wù)場景中的落地效率,成為新的核心變量。
IDC中國研究經(jīng)理孫振亞向時(shí)代周報(bào)記者表示,產(chǎn)業(yè)關(guān)注點(diǎn)已經(jīng)逐漸從“模型有多強(qiáng)”,轉(zhuǎn)向“能不能產(chǎn)出價(jià)值”,核心在于能否在真實(shí)業(yè)務(wù)中解決問題并交付結(jié)果。
“未來是否出現(xiàn)類似DeepSeek那樣的現(xiàn)象級沖擊,更多取決于發(fā)布節(jié)奏與市場情緒,而非技術(shù)能力本身。從能力儲(chǔ)備與創(chuàng)新動(dòng)能看,中國大模型陣營依然處于高強(qiáng)度競爭與快速迭代階段,具備再次定義階段性技術(shù)標(biāo)桿的條件。”沙利文中國合伙人崔楠對時(shí)代周報(bào)記者稱。
DeepSeek新模型技術(shù)路徑成形
DeepSeek-V4尚未正式發(fā)布,但過去一個(gè)多月的技術(shù)動(dòng)作,已經(jīng)勾勒出新模型的大致方向。
1月1日,DeepSeek拋出的論文中提出名為mHC的新網(wǎng)絡(luò)架構(gòu),核心在于解決信息的流動(dòng)。中原證券研報(bào)認(rèn)為,mHC引入了一種類似“加權(quán)平均”的思路,由于凸組合的結(jié)果不會(huì)超過輸入的最大值,保證信號(hào)不會(huì)被無限放大。試驗(yàn)結(jié)果表明在MoE模型上,mHC使得模型訓(xùn)練的收斂速度提升約1.8倍。
隨后,1月12日,DeepSeek再次發(fā)布論文,提出名為Engram的條件記憶模塊,依靠稀疏查找來檢索固定知識(shí)的靜態(tài)嵌入。浙商證券研報(bào)分析認(rèn)為,這為大語言模型的架構(gòu)優(yōu)化提供了新思路,可以期待集成Engram技術(shù)的DeepSeek-V4 模型帶來更強(qiáng)競爭力:擁有更大的知識(shí)庫(低成本內(nèi)存擴(kuò)展)、更強(qiáng)的邏輯推理(網(wǎng)絡(luò)深度解放)以及更低的推理成本(存算分離)。
1月27日,DeepSeek再發(fā)論文將優(yōu)化延伸至輸入側(cè)。該論文提出將視覺作為文本壓縮媒介的新方法,將文本以圖片的方式進(jìn)行輸入,可以極大減少輸入所需要的token數(shù)量,解決長文本輸入問題。2月11日,多位用戶反饋DeepSeek已在網(wǎng)頁端與移動(dòng)端更新版本,上下文窗口從128K提升至百萬token級別。技術(shù)演進(jìn)與產(chǎn)品更新形成呼應(yīng),新模型框架逐漸清晰。
從公開信息來看,mHC與Engram兩項(xiàng)架構(gòu)創(chuàng)新均指向同一目標(biāo),提高效率并壓縮成本。中原證券預(yù)測, 對于新模型來說,成本有望大幅降低,有望較大地緩解目前國內(nèi)缺芯的狀況。
但架構(gòu)優(yōu)化解決的是模型層面的效率問題,行業(yè)競爭的維度,已經(jīng)發(fā)生變化。
“當(dāng)前主流模型在通用理解與生成能力上已達(dá)到可用水平,不同廠商之間的性能差距對業(yè)務(wù)結(jié)果的影響逐步降低。”崔楠表示,企業(yè)客戶更關(guān)注的是任務(wù)成功率、穩(wěn)定性、響應(yīng)時(shí)延、成本可控性以及與現(xiàn)有系統(tǒng)的集成效果。因此,真正決定商業(yè)價(jià)值的,是圍繞模型構(gòu)建的包括工作流編排、數(shù)據(jù)接入、權(quán)限控制、監(jiān)控評估與持續(xù)優(yōu)化機(jī)制等工程體系。
“模型再聰明,單靠它自己是辦不了事的。模型缺少企業(yè)一線業(yè)務(wù)知識(shí)與流程上下文,也缺少與現(xiàn)有系統(tǒng)和產(chǎn)品的深度連接,更缺少穩(wěn)定的工具調(diào)用與任務(wù)執(zhí)行能力。”孫振亞指出,無論是Agent、MCP還是Skills,本質(zhì)上都是在模型之上做工程化構(gòu)建。把模型的推理能力,跟企業(yè)的業(yè)務(wù)知識(shí)、工具生態(tài)、執(zhí)行鏈路真正串聯(lián)起來。產(chǎn)業(yè)競爭的重心,也已經(jīng)轉(zhuǎn)移到誰能在模型底座之上,構(gòu)建出真正能在真實(shí)場景中閉環(huán)交付價(jià)值的系統(tǒng)。
流量高峰背后,執(zhí)行能力才是壁壘
2026年初,OpenClaw與Seedance 2.0幾乎在同一時(shí)間引爆科技圈輿論。一個(gè)代表Agent的工程化極限,一個(gè)試圖讓AI視頻生成走向可交付的工業(yè)形態(tài)。
OpenClaw的故事更具戲劇性。它的前身名為Clawdbot,2025年11月由奧地利工程師彼得·斯坦伯格創(chuàng)建。項(xiàng)目上線10天,GitHub Star數(shù)突破10萬,刷新開源項(xiàng)目增長紀(jì)錄。2026年1月,因與Anthropic商標(biāo)沖突更名為Moltbot,兩天后再次更名為OpenClaw。名字三易其主,熱度卻持續(xù)攀升。
真正讓OpenClaw破圈的,不是改名風(fēng)波,而是能力邊界的變化。OpenClaw被視為第一款讓普通用戶切身感受到“AI 直接替你干活”的本地Agent。不同于停留在對話界面的聊天機(jī)器人,OpenClaw具備對操作系統(tǒng)與應(yīng)用層的直接控制能力。OpenClaw可以在本地運(yùn)行,修改代碼、修復(fù)Bug、重構(gòu)組件;也可以模擬人類操作瀏覽器,自動(dòng)填寫表單、抓取網(wǎng)頁數(shù)據(jù)、管理多個(gè)平臺(tái)賬號(hào);還能調(diào)用即時(shí)通訊工具發(fā)送語音消息,處理郵件,甚至完成線上采購。
換言之,OpenClaw不再只是給出建議,而是直接執(zhí)行任務(wù)。
國聯(lián)民生證券研報(bào)指出,作為一款24小時(shí)自動(dòng)運(yùn)行的AI助手,OpenClaw終結(jié)了AI作為“被動(dòng)問答工具”的階段,正式定義了以自主拆解、跨平臺(tái)調(diào)度和閉環(huán)執(zhí)行為核心的生產(chǎn)范式。它促使AI從屏幕背后的“智囊”進(jìn)化為深入業(yè)務(wù)一線、具備實(shí)操權(quán)的“數(shù)字雇員”,大幅壓縮了從創(chuàng)意到落地的開發(fā)鏈路,將企業(yè)數(shù)字化轉(zhuǎn)型的重心從“流程驅(qū)動(dòng)”轉(zhuǎn)向“智能驅(qū)動(dòng)”。
“OpenClaw通過生態(tài)打通和工具整合,并默認(rèn)給了Agent足夠高的系統(tǒng)權(quán)限和上下文支持,釋放出過去很多Agent產(chǎn)品因生態(tài)封閉、安全顧慮和成本考量而束縛住的能力,使得大家看到 Agent 的無限可能性。”孫振亞表示,AI廠商的競爭力不是某個(gè)形態(tài)的產(chǎn)品,而是能否讓AI真正可用,讓AI真正把事情辦好。
在視頻生成領(lǐng)域,Seedance 2.0也呈現(xiàn)出類似方向。
游戲科學(xué)創(chuàng)始人、《黑神話:悟空》制作人馮驥公開評價(jià)其為“當(dāng)前地表最強(qiáng)的視頻生成模型,沒有之一”,并認(rèn)為這意味著“AIGC 的童年時(shí)代結(jié)束”。
過去一年,人工智能視頻生成技術(shù)確實(shí)取得明顯進(jìn)展,但在影視與工業(yè)生產(chǎn)環(huán)節(jié),仍存在幾項(xiàng)關(guān)鍵瓶頸:角色與場景在多鏡頭間缺乏一致性,人物五官與服飾頻繁“變形”;物理邏輯難以自洽,重力與運(yùn)動(dòng)關(guān)系失真;音畫無法原生同步,口型與情緒匹配需要后期修補(bǔ);導(dǎo)演對鏡頭語言的控制權(quán)過度依賴模型內(nèi)部黑箱。
Seedance 2.0的升級,正是圍繞這些問題展開。相較于上一版本,其目標(biāo)不再只是生成畫面,而是回答更具體的制作問題,分鏡如何自動(dòng)拆解,鏡頭如何自然運(yùn)動(dòng),人物在連續(xù)畫面中如何保持穩(wěn)定,口型與音軌如何原生對齊,以及同一段素材能否一次生成即可直接使用。
國聯(lián)民生證券研報(bào)指出,Seedance2.0在官方宣傳里被描述為采用“雙分支擴(kuò)散變換器架構(gòu)”,并主打四件事:自動(dòng)分鏡/運(yùn)鏡、多模態(tài)參考輸入、音畫同步(含口型/情緒匹配)、以及多鏡頭敘事的一致性;同時(shí)強(qiáng)調(diào)“60秒內(nèi)生成帶原生音頻的多鏡頭2K視頻”等性能賣點(diǎn)。
Seedance2.0的產(chǎn)品意圖很明確,不是把視頻當(dāng)作“盲盒”,而是把視頻當(dāng)作“可交付的鏡頭序列”。
這與OpenClaw的邏輯并無本質(zhì)差異。兩者都試圖跨越一個(gè)關(guān)鍵門檻:從展示能力,走向承擔(dān)任務(wù)。
當(dāng)模型開始對“結(jié)果”負(fù)責(zé),競爭的標(biāo)準(zhǔn)也隨之改變。春節(jié)檔或許仍會(huì)誕生新的流量高峰,但真正決定行業(yè)走向的,或許不再只是模型本身,而是圍繞模型構(gòu)建的執(zhí)行系統(tǒng)。
“未來具有決定性影響力的競爭焦點(diǎn)將是規(guī)模化可復(fù)制的執(zhí)行能力。如果某類智能體能夠在某一場景中實(shí)現(xiàn)高成功率、低成本運(yùn)行,并能夠快速復(fù)制到大量客戶或設(shè)備中,就可能形成真正的商業(yè)壁壘。”崔楠指出,模型的重要性并沒有下降,但其角色正在轉(zhuǎn)變?yōu)槟芰Φ鬃T谖磥泶竽P彤a(chǎn)業(yè)的核心競爭中,能夠?qū)⒛P湍芰Ψ€(wěn)定、低成本地嵌入真實(shí)業(yè)務(wù)流程,并形成規(guī)模化應(yīng)用的企業(yè)更有可能在競爭中占據(jù)優(yōu)勢。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.