![]()
你的AI能準確說出凱撒渡過盧比孔河的年份,卻答不上來你公司網絡里有多少臺設備離線。這不是bug,是架構問題。
大語言模型(LLM)的訓練數據來自公開互聯網——維基百科、Stack Overflow、GitHub、論文書籍。古羅馬被記錄得很清楚,你的內部數據庫沒有。
結果是:AI對什么都懂,唯獨不懂你真正關心的東西——你的系統狀態、客戶數據、基礎設施運行情況。大多數團隊把這當成本質限制,用AI寫寫代碼、改改文檔,數據庫繼續靠懂SQL的人手動查,或者看兩年前搭建、現在沒人碰的儀表盤。
模型不蠢,是斷網了
現代LLM處理結構化數據的能力被嚴重低估。把設備狀態表、補丁版本、最后在線時間丟給Claude或GPT-4,它能瞬間發現人類需要花一小時才能看出的模式。
差距在接入,不在智商。
你的AI不知道數據庫里有什么,因為從來沒人把它們連起來。這是集成問題,不是智能問題。
模型上下文協議(MCP)是Anthropic推動的開放標準,讓數據源直連AI模型。不用再把查詢結果復制粘貼到聊天窗口,AI能在對話中實時查詢你的數據庫。
工作流變化很直觀:
以前:用戶提需求→工程師寫SQL→導出數據→整理格式→發報告。
現在:用戶直接問,AI自己查、自己追問、自己過濾聚合。
舉個例子:"哪些客戶的設備超過72小時未上線,且運行著過期的代理版本?"
沒有MCP時,這是SQL聯表查詢、數據導出、可能還要Slack上喊人幫忙。20分鐘起步,還可能被優先級更高的活擠掉。
連上CMDB或IT管理平臺后,一句話的事。幾秒出答案,還能下鉆、交叉驗證、觸發后續動作。
Conexor.io這類工具就是干這個的——讓IT數據能被AI查詢,而不只是被儀表盤消費。
最諷刺的安全隱患:AI對你的基礎設施"自信地胡說"
這里有個反直覺的陷阱。
問AI你的網絡拓撲結構,它會編一個聽起來合理的答案。問古羅馬,它反而準確。問題越專業、越 domain-specific,模型越不可靠——除非你用真實數據給它"接地"。
通過MCP連接數據源,不只是讓AI更有用,更是讓它可信。模型從猜測變成報告。
這種"接地"(grounding)是RAG(檢索增強生成)的核心,但MCP把RAG從文檔搜索推進到實時數據庫查詢。不是預先把知識切片存進向量庫,是AI需要時直接問數據庫要。
區別很實際:RAG適合相對靜態的知識庫,MCP適合頻繁變化的狀態數據。你的設備在線狀態每小時都在變,向量庫追不上。
落地建議:從每周被手動查一次的數據源開始
不需要一次性連接所有系統。
找個每周都有人手動查詢的數據源——設備清單、工單積壓、補丁合規報告。連上它,開始提問,看看模型能挖出哪些你之前沒注意到的模式。
目標不是取代儀表盤,是讓團隊里任何人都能問數據問題——不只是會SQL的那幾個。
儀表盤是"我們假設你想看這個",AI查詢是"你想知道什么"。
這對運維團隊尤其關鍵。平均故障恢復時間(MTTR)里,大量時間花在"找信息"而不是"修問題"上。信息散落在CMDB、監控告警、工單系統、Slack記錄里,人肉整合是隱形瓶頸。
AI作為統一查詢層,能把分散的數據源縫合成一個可對話的接口。
當然,權限控制是硬門檻。不是所有數據都能給AI看,不是所有查詢都能自動執行。MCP服務器需要細粒度的訪問控制,模型本身也需要被約束在只讀或特定操作范圍內。
但這和"讓AI能訪問數據"是兩件事。先解決能不能問,再解決誰能問、能問多少。
目前MCP生態還在早期,但增長很快。Anthropic開源了協議規范,社區已經貢獻了Postgres、SQLite、GitHub、Slack等連接器。企業內部的CMDB、ERP、CRM對接,需要自建MCP服務器,但框架是標準化的。
一個值得關注的信號:OpenAI在2024年底的DevDay上展示了類似方向的"函數調用"增強,但MCP的開放性讓它更像一個行業協議而非單一廠商功能。
如果你的數據團隊還在用"導出-清洗-分析"的流水線響應業務問題,或者你的運維值班還在靠人翻三個系統定位故障,這個協議值得仔細看。
你的數據庫比任何AI都更了解你的業務——問題是,它一直在等一個能被提問的接口。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.