![]()
如果說2023年是“大模型元年”,ChatGPT的問世打開了AI大模型的大門,2025年是“大模型應用落地”之年,那么2026年正在被行業定義為“智能體爆發元年”。當AI從“對話機器”進化為“能自主行動的Agent”,在安全行業的應用也讓Agent成為了企業安全的捍衛者。
“意圖主權”是智能體安全的基礎
根據GII發布的《2026年全球人工智慧(AI)安全市場報告》,全球AI提示詞安全市場在2025年已達到19.8億美元,預計2026年將增長至26.1億美元,年復合增長率高達31.3%。這種高速增長本身就說明,大模型時代的安全需求正在經歷爆發式擴張。
回看AI大模型問世之后至今,企業級AI安全大致可以分為三個階段,對此,綠盟科技集團副總裁宮智表示,企業級AI安全經歷了從最初的“內容博弈”,到中間的“協議生態”,再到當下的“意圖主權”。“2023年大模型剛剛出來,它還不是一個平民技術,基本上體現出來的產品形態就是Chatbot對話,”他回憶道,“對話更重要的是圍繞模型的輸入輸出、模型內容語料的安全,以及在對話過程中產生內容的合規性。”彼時,安全防護的重點相對單一,那就是管控模型“說什么”和“怎么說”。
然而,真正帶來“范式革命”的轉折點出現在2024年底至2025年初。隨著DeepSeek等國產大模型以更低的成本門檻走向大眾,智能體迎來了真正的爆發式增長。“Agent集中問世是應用側明顯的變化。”宮智分析道,這一變化帶來的風險暴露面急劇擴大——“原來僅限于內容輸入輸出問題,現在智能體之后它會實現跟不同應用和系統之間的交互,這個智能體本身跟不同的智能體也會有交互,鏈路就非常多,對安全來說,每一個通道和接口都會存在一些風險問題。”
而這些變化意味著,一個被惡意操控或存在漏洞的智能體,可能成為穿透企業內網、竊取核心數據、破壞業務流程的新型“跳板”。國際知名網絡安全機構SANS Institute在2025年底的一份白皮書中警告,基于智能體的供應鏈攻擊和橫向移動已成為新興高級持續性威脅(APT)的典型特征。
新威脅的背后,對于網絡安全行業而言,一條清晰的脈絡已然浮現——安全焦點正從單一模型的“內容安全”向復雜智能體的“行為與意圖安全”快速遷移。
面對智能體帶來的復雜交互風險,傳統的基于權限和角色的訪問控制顯得力不從心。業界共識正在向一個新的概念聚焦——“意圖主權”。
所謂“意圖主權”,其核心在于將安全管控的關口大幅前移。傳統的安全監控通常在動作執行后進行分析響應,而在智能體場景下,由于其行動速度極快,事后響應往往為時已晚。“意圖管理的本質來說就需要我介入它智能體的推理過程,就把風險管控再往前置一下。”宮智表示。這就需要安全系統能夠解析智能體的“思考”過程,在其計劃執行危險操作(如批量刪除數據、越權訪問敏感系統)之前,就進行預判和干預。
不過“意圖主權”的底層,也給安全技術提出了挑戰。首先,它要求安全產品能夠與多樣化的智能體及其底層模型進行深度集成與交互,即“跟不同的模型能夠有一個生態的配合”;其次,這種介入不能嚴重影響智能體原有的推理效率和正常業務功能;最后,必須具備實時的高精度意圖識別與阻斷能力。
盡管有很多挑戰,但“意圖主權”被視為應對海量智能體并行環境的必由之路。“未來,企業和個人都會面對很多智能體,在使用過程中,無論是角色,還是權限管理,難度都非常高”宮智進一步表示,“如果能夠基于智能體的推理邏輯,以及它的行為來做這樣一個管理的話,從最終的管控或者風險控制效果來看,效果更好,效率更高。”
而當前安全廠商除了利用AI的能力進行防御之外,也開始在智能體安全方面進行布局。這些布局也可以看作是安全防御走向“意圖主權”的一部分。以亞信安全為例,在近期舉辦的C3安全大會上,其發布了業內首個智能體信任架構——ATF(Agent Trust Fabric)。對此,亞信安全智能體安全專家焦正新介紹,當前90%以上的企業已部署智能體,但僅10%的組織擁有成熟的非人類身份管理策略。傳統以人為中心的靜態身份體系面對智能體的動態產生和湮滅、身份冒用、權限過度授予等風險,已難以應對。
據焦正新介紹,ATF框架首創“智能體意圖對齊+人機共治”的安全范式,圍繞“身份可信、意圖對齊、生成有界、行為可控、鏈路可審、責權可溯”六個維度重構人機協同的信任根基。
而亞信安全提出的ATF框架,也可以視為將智能體安全從“權限管理”推向“意圖治理”重要一步——其建立了AI智能體身份安全的系統性標準,為智能體在企業核心業務中的規模化可信部署提供了安全基礎。
一體化能力是安全廠商重點布局方向
在AI安全的技術路線之爭中,一個核心問題始終困擾著整個行業:安全大模型究竟應該走“通用”路線還是“垂直”路線?2023年至2024年間,幾乎每一家安全廠商都宣稱自己在做垂直大模型。但到了2025年,這一陣營明顯出現了分化。宮智的判斷是,安全領域更適合垂直大模型的路徑,而綠盟科技就正在沿著“垂直領域專業化”和“一體化全鏈路防護”兩條路徑構建新型防御能力。
“業內可能也有不同的聲音,垂直模型是否比通用模型更好用,但是我們從我們自身項目的一些實踐,以及我們對安全未來風險的判斷來看,我們始終還是很堅定的認為安全垂直大模型市場的一個價值,這個是明確的。”宮智表示。
通用大模型雖然能夠通過精心的提示詞工程覆蓋大量通用性安全知識,但面對安全運營中高度場景化、行業化的復雜問題時,往往力不從心。
但垂直模型之路也并不好走,首先,安全知識的專業性極強,漏洞信息、攻擊手法、威脅情報具有高度的時效性和隱蔽性,通用模型難以通過公開語料獲得深度理解;其次,模型效果嚴重依賴于高質量、高相關度的數據。“真正要做垂域的前提,模型的效果好壞完全取決于數據,你要做好專業模型的話就是要有更高質量的一些安全數據。”宮智指出。綠盟憑借二十多年的攻防實戰、安全服務和產品積累,形成了獨有的安全數據資源庫,這構成了其垂直模型的核心競爭力。
在宮智看來,垂直模型的價值正體現在兩個關鍵方向。其一,是邊緣側的輕量化與專用化。隨著安全能力需要下沉到網絡邊緣(如探針、IPS/IDS、WAF等設備),對本地化、低延遲、低算力消耗的AI能力需求激增。“這就要求在邊緣側要有算力,模型本身要夠小但是又要夠專,邊緣的好處它確實只解決一件事情,它不需要解決很多的事情。”宮智介紹,綠盟正在致力于將安全模型針對特定邊緣場景進行極致輕量化,以提升本地檢測與自適應響應的效率。
其二,是支撐上層場景化智能體。綠盟以“風云衛”安全數據大模型為基座,衍生出面向不同安全運營環節(如分析研判、威脅狩獵、處置響應)的專用數字人。“更多地就是把我們的垂域能力和這種聚焦面向更細分場景化的安全運營環節來做一個結合。”這種架構既保證了底層知識的專業性,又實現了上層應用的靈活性與針對性。
而在騰訊云安全總經理、云鼎實驗室首席架構師李濱看來,垂類模型和通用模型,以及串聯起它們的智能體都是當前確保企業安全過程中不可或缺的一部分,“通用模型以更強的泛化和推理能力,是統攬企業安全全局的角色,經過領域優化的垂類模型則對于單點的安全問題處理能力更高效,而智能體則是能很好地將兩者‘粘合’在一起,從而發揮出最大的效率。”李濱如是說。
無論是垂直模型,還是通用模型,亦或是智能體,這些也都只是當前企業安全防御的一環,企業真正需要的不僅是一個安全模型或者一個安全產品,而是需要一個整體的解決方案,能夠幫助他們構建一套完整的安全防御體系,最終達成一體化防御的效果。
而一體化防護的體系也成為了當前安全廠商重點布局的方向。對此,宮智表示,“雖然智能體帶來了全新的安全挑戰,但核心的安全防護理念并沒有發生太大變化,依然是‘事前、事中、事后’的全流程防御框架,關鍵在于將這一框架適配到智能體場景中”。基于這一理念,綠盟科技打造了清風衛一體化智能體安全防護系統,構建了覆蓋“輸入輸出防護、全鏈路監測、意圖預判、風險處置”的全流程防御體系,成為企業應對智能體安全風險的核心工具。針對此,據宮智介紹,綠盟推出的AI安全一體機 (AI-UTM)正在以月為單位迭代升級,用最快速度推向市場,新增了智能體安全評估、智能體指令安全、Skill安全檢查、智能體安全網關、智能體行為管控功,可實現精準識別、全域管控AI智能體并快速收斂風險,有效破解“影子 AI”管理難題,適配企業級智能體應用發展的安全新需求。
據宮智介紹,清風衛通過容器化套件,將不同的安全模塊部署在智能體業務流的關鍵節點。例如,在智能體的聊天交互前端部署“圍欄套件”進行輸入輸出檢測;在智能體與后端業務系統、工具API(通過MCP等協議網關)的交互路徑上部署“執行圍欄”,監測其調用行為。這套體系旨在覆蓋從“意圖”到“行為”的全過程。
亞信安全副董事長、CEO馬紅軍也表示一體化安全防御已經當前企業級安全必需的選擇,他指出,舊的安全建設模式已觸及天花板。安全需要的不是再買一個盒子、再上一個產品,而是一次底層邏輯的徹底重建——在聯動防御的基礎上,打造數據驅動與AI原生的新體系。
而亞信安全在AI XDR產品升級上也體現了這一點。馬紅軍介紹,今年亞信安全AI XDR最大的一個升級就是將AI XDR平臺從“工具”走向“智能體矩陣”。亞信安全在平臺中嵌入了資產管理、風險分析、漏洞管理、聯動處置等十大智能體,覆蓋從威脅檢測到響應處置的全鏈條。
安全行業的“人機協同”怎么做?
隨著AI在企業整體安全架構的位置愈發重要,一個有關“人機關系”的問題也隨之浮出水面。人與AI的關系一直是這個時代熱議的話題,在安全行業亦是如此,AI主導的攻防時代,人的角色將如何被重新定義?
在RSAC 2026大會上,谷歌云首席運營官兼安全產品總裁Francis deSouza曾拋出了一個頗具爭議的觀點:“以人為主導的防御往往過于緩慢,難以阻止由智能體發起的網絡攻擊,因此谷歌正轉向以智能體主導的防御方式。”這一判斷背后是攻擊方利用AI實現“攻擊武器化”的驚人速度。
據媒體報道,安全研究機構Gambit Security曾披露,在2025年12月至2026年2月期間,一名獨立攻擊者利用Claude Code和GPT-4.1兩款AI編程輔助工具,成功入侵墨西哥九家政府實體,竊取了數億條公民敏感記錄,并在部分系統中實現了持久化控制。據悉,本次攻擊中Claude Code承擔了約75%的遠程命令執行任務,攻擊者共記錄了1,088條提示詞,這些提示生成了5,317條可執行命令。借助AI的代碼生成與解釋能力,攻擊者在數小時內即可完成對陌生網絡的資產識別與攻擊路徑規劃——這一效率在過去需要一支專業攻擊團隊數周甚至數月才能實現。
面對攻擊側不斷利用AI提升攻擊效率,豐富攻擊手段,防守方也在積極擁抱AI,“用AI打敗AI”這個觀點從生成式AI問世那天起就響徹安全圈。當前,AI SOC正在從“輔助駕駛”邁向“智能體驅動”的新階段。
那么,在這樣一個“AI對決AI”的新格局中,人類安全專家的位置在哪里?宮智的回答非常清醒:“人在這個過程中又是不可或缺的,但是人在這個過程中更多是說我對AI輔助加工過的信息之后,它最終都要回歸到一個處置的決策上。”
他認為,AI可以承擔“偏體力活”的工作,比如認知分析、告警研判、威脅溯源等常規動作,但最終的處置決策必須由人來做。“AI接到的只是一個相對僵化的基于邏輯的推理判斷,”宮智解釋道,“但不同企業在做安全運營的時候,環境沒有一個統一原則。安全一定是服務于業務的,所以安全決策的前提要保證業務本身的連續性。”
李濱也有著相同觀點,他指出,傳統重復性的安全工作可以交給AI處理,安全運營人員可以將更多的精力放在一些高階的安全問題的處理和決策上。
這種“人機協同”的分工邏輯,既兼顧了防御效率,也規避了AI自主決策帶來的風險。具體而言,AI負責完成大量常規性的風險識別、數據分析工作,比如對智能體的交互行為進行實時監測、對潛在風險進行初步判斷,將復雜的信息加工成簡潔的決策建議;而人則負責對AI提供的建議進行審核,結合企業的業務需求、安全策略,做出最終的處置決策。
(文|Leo張ToB雜談,作者|張申宇,編輯丨楊林)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.