對許多人而言,生成式人工智能(GenAI)最初只是居家和個人設備上的新奇嘗試。
![]()
編譯|牛透社 Alex;編輯|燕子
但如今,AI 已深度滲透職場生態 ——在提升生產效率的同時,也讓企業暴露于巨大的安全漏洞之中。
敏感公司數據正以各種形式(無論有意或無意)持續流入公共 AI 系統,IT 與網絡安全負責人疲于應對。
一旦專有數據被公共 AI 工具處理,這些信息就可能成為模型的訓練數據,最終服務于其他用戶。例如 2023 年 3 月,某跨國電子制造商就曾被曝發生多起員工將產品源代碼等機密數據輸入 ChatGPT 的事件。
大型語言模型等生成式 AI 應用的運行機制決定了它們會從交互中持續學習—— 沒有任何企業愿意用自家核心數據來 "喂養" 公共 AI 應用。
面對商業秘密和核心數據泄露的風險,許多企業選擇直接封殺生成式 AI 應用。
這種看似能阻斷敏感信息流入未授權平臺的做法,實則催生了更危險的 "AI 影子化" 現象 —— 員工開始通過私人設備登錄、將數據轉發至個人賬戶,甚至截圖繞過監控系統上傳,使得企業安全防線的盲區不斷擴大。
【牛透社小貼士】
"Shadow AI"(影子AI):指員工未經企業 IT 部門批準,私自使用生成式 AI 工具(如 ChatGPT 等)處理工作的現象。
這一概念源自 IT 管理中的術語 "Shadow IT"(影子 IT),特指員工繞過正規流程使用的技術工具。
更糟的是,通過簡單封鎖訪問權限,IT 和安全主管反而失去了對真實情況的掌控,實際上并未真正管控數據安全與隱私風險。這種舉措只會扼殺創新與生產力提升。
應對 AI 風險的戰略路徑
有效管控員工使用 AI 帶來的風險,需要采取以可視化監控、治理規范和員工賦能為核心的多元化策略。
第一步是全面掌握 AI 工具在組織內部的應用情況。通過可視化監控,IT 管理者能夠識別員工使用模式,標記風險行為(例如試圖上傳敏感數據),并評估公共 AI 應用使用的真實影響。
若缺乏這一基礎認知,治理措施注定收效甚微,因為它們無法針對員工與 AI 交互的真實場景進行有效管控。
制定定制化政策是下一步的關鍵舉措。企業應避免一刀切的禁令,轉而推行基于場景感知的智能管控策略。
具體而言,對于公共 AI 應用,可部署瀏覽器隔離技術—— 允許員工處理常規任務的同時,自動攔截特定類型公司數據的上傳行為。
另一種方案是將員工引導至經企業認證的 AI 平臺,這些平臺在保持同等功能的同時,能有效保護商業機密。
需要特別注意的是,不同崗位應實施差異化管控:某些研發團隊可能需要特定應用的精準授權,而財務等敏感部門則需配置更嚴格的訪問限制。
為防止濫用 AI 技術,企業須部署強效的數據防泄露(DLP)機制,實時識別并阻斷向公共或未授權 AI 平臺共享敏感信息的企圖。
鑒于意外泄露是 AI 相關數據泄露的主因,啟用實時 DLP 防護可構筑安全防線,顯著降低企業受損風險。
最終,企業必須對員工開展 AI 固有風險及相應管控政策的專項培訓。培訓內容應當聚焦實操指南 —— 明確告知哪些 AI 使用行為安全可行,哪些屬于高危操作 —— 同時清晰傳達敏感數據泄露的后果。
唯有將技術防護措施與員工風險意識、責任追究機制相結合,方能構建完整的防御體系。
創新與安全的平衡之道
生成式 AI 已然徹底改變了員工的工作模式與組織運作方式,在帶來變革性機遇的同時也伴隨著顯著風險。
問題的關鍵不在于拒絕這項技術,而在于以負責任的態度擁抱它。那些著力構建可視化監控體系、實施精準治理策略并持續開展員工培訓的企業,終將找到創新激勵與敏感數據保護之間的最佳平衡點。
企業不應在安全與工作效率之間做單選題,而應打造二者共生共榮的生態。那些成功實現這種平衡的組織,將在快速演進的數字化浪潮中搶占先機。
通過管控 "影子 AI" 風險、構建安全高效的 AI 應用體系,企業完全可以將生成式 AI 從潛在負擔轉化為戰略機遇,在此過程中夯實基業長青的根基。
生成式 AI 已成為不可逆的趨勢。
真正能從中獲益的,永遠是那些洞悉其風險、建立有效防護機制,并賦能員工安全合規應用的企業。
說明:文章為牛透社原創,未經允許謝絕轉載。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.