1990年代,神經(jīng)科學(xué)家 Antonio Damasio 遇到一個(gè)奇怪的病人。這人叫 Elliot,腦部手術(shù)切除了一個(gè)腫瘤,順帶損傷了前額葉的一小塊區(qū)域。手術(shù)后,智商測(cè)試正常,邏輯推理正常,記憶力正常,所有認(rèn)知指標(biāo)都沒(méi)問(wèn)題。但他沒(méi)法正常生活了。
他沒(méi)法做決定。不是不會(huì)分析——恰恰相反,他分析得太好了。選午餐吃什么,他能花半小時(shí)權(quán)衡每家餐廳的優(yōu)缺點(diǎn)。選用藍(lán)筆還是黑筆簽字,他能陷入無(wú)盡的比較。老板解雇了他,妻子離開(kāi)了他。Damasio 研究了很久,最后得出結(jié)論:Elliot 損傷的那塊腦區(qū),負(fù)責(zé)把情緒和決策連接起來(lái)。沒(méi)有了情緒的"偏見(jiàn)"來(lái)幫他篩選,所有選項(xiàng)在他眼里同等重要。所有選項(xiàng)同等重要,等于沒(méi)有選項(xiàng)重要。
我們通常把"限制"當(dāng)成壞事。更多信息更好,更多選擇更好,更強(qiáng)的處理能力更好。Elliot 的案例指向相反的結(jié)論:約束不是決策的障礙,而是決策的前提。
人類的情緒系統(tǒng)本質(zhì)上是一套篩選機(jī)制。當(dāng)你面對(duì)選擇時(shí),它把你過(guò)去的經(jīng)驗(yàn)、當(dāng)前的身體狀態(tài)、社會(huì)信號(hào),整合成一個(gè)"感覺(jué)"——"這個(gè)選項(xiàng)讓我不舒服"。你不需要推演導(dǎo)致這個(gè)感覺(jué)的所有原因,情緒直接給你一個(gè)傾向。這是一種偏見(jiàn),但沒(méi)有這種偏見(jiàn),你會(huì)像 Elliot 一樣卡在原地。
這和 AI 有什么關(guān)系?表面上看,Elliot 的問(wèn)題是"情緒缺失",AI agent 的問(wèn)題是"context 管理",一個(gè)是神經(jīng)科學(xué),一個(gè)是工程實(shí)踐。但往深一層看,它們是同一個(gè)問(wèn)題的不同表現(xiàn):有限的處理能力如何面對(duì)無(wú)限的信息?
Elliot 的處理能力沒(méi)問(wèn)題,但他失去了告訴他"關(guān)注這里、忽略那里"的機(jī)制。AI agent 的處理能力也沒(méi)問(wèn)題,但 context window 有上限——它必須決定把什么放進(jìn)去、把什么留在外面。人類用情緒來(lái)篩選。AI 用什么?
AI 領(lǐng)域有一個(gè)已經(jīng)被實(shí)證驗(yàn)證的現(xiàn)象:context 越長(zhǎng),模型表現(xiàn)不一定越好。研究顯示,當(dāng) context 變長(zhǎng)時(shí),模型容易"迷失在中間"——對(duì) context 開(kāi)頭和結(jié)尾的信息關(guān)注度高,中間的信息容易被忽略。更多的信息塞進(jìn)去,反而可能稀釋真正重要的內(nèi)容。這不完全是 Elliot 的問(wèn)題,但有相似的結(jié)構(gòu):當(dāng)所有信息都擺在面前,沒(méi)有機(jī)制來(lái)區(qū)分重要和不重要,系統(tǒng)的表現(xiàn)會(huì)下降。
AI 領(lǐng)域發(fā)展出了一系列技術(shù)來(lái)應(yīng)對(duì)這個(gè)問(wèn)題。看起來(lái)五花八門(mén),但本質(zhì)上都在做同一件事:決定 LLM 應(yīng)該"看到"什么。
Skills 和 SubAgent 是兩種不同的能力組織方式。Skills 是把能力內(nèi)化:你想讓 agent 會(huì)寫(xiě) PPT,就把工具說(shuō)明、調(diào)用方式、注意事項(xiàng)塞進(jìn)它的 context,它讀完說(shuō)明自己動(dòng)手,所有過(guò)程發(fā)生在同一個(gè) context 里,信息互通,但 context 會(huì)越來(lái)越臃腫。SubAgent 是把能力外包:你派一個(gè)專門(mén)的 agent 去寫(xiě) PPT,它做完把結(jié)果交回來(lái),兩個(gè) agent 各有獨(dú)立的 context,主 agent 的工作空間保持干凈,但信息在交接時(shí)有損耗——你只拿到對(duì)方選擇告訴你的東西。一個(gè)是"我自己學(xué)會(huì)",一個(gè)是"我找人幫忙",本質(zhì)區(qū)別是 context 的邊界:共享還是隔離。
MCP 和 A2A 是另一層的東西,它們是通信協(xié)議。MCP(Model Context Protocol)規(guī)定 agent 怎么發(fā)現(xiàn)和調(diào)用外部工具——有哪些工具可用,怎么傳參數(shù),怎么拿結(jié)果。A2A(Agent2Agent)規(guī)定 agent 之間怎么對(duì)話——怎么發(fā)現(xiàn)對(duì)方,怎么協(xié)商任務(wù),怎么交換信息。它們定義的是信息怎么流動(dòng),不規(guī)定信息怎么篩選。一個(gè) MCP 工具,你可以直接塞進(jìn)主 agent 的 context,也可以讓另一個(gè) agent 去調(diào)用然后匯報(bào)結(jié)果。協(xié)議是管道,架構(gòu)才是決定 context 怎么組織的地方。
Context compression 是在空間不夠時(shí)做取舍。兩種主流方法:一種是直接砍掉舊的內(nèi)容,只保留最近的信息,快但粗暴,可能砍掉重要的早期信息;另一種是用模型生成摘要,把長(zhǎng)歷史壓縮成短結(jié)論,保留了信息的"精華",但摘要本身是一次有損轉(zhuǎn)換——摘要者認(rèn)為不重要的細(xì)節(jié)可能恰恰是后續(xù)決策需要的。
這里有一個(gè)經(jīng)常被技術(shù)討論忽略的因素:成本。Context 不是免費(fèi)的,更長(zhǎng)的 context 意味著更多的計(jì)算量、更高的延遲、更貴的 API 賬單。在生產(chǎn)環(huán)境里,一個(gè)任務(wù)跑幾分鐘還是幾秒鐘,可能決定了這個(gè)方案能不能用。所以 context 管理不只是"怎么讓 agent 更聰明"的問(wèn)題,也是"怎么在預(yù)算內(nèi)完成任務(wù)"的問(wèn)題。你可能有能力把所有相關(guān)信息都塞進(jìn) context,但你付不起那個(gè)錢(qián)。約束不只來(lái)自技術(shù)上限,也來(lái)自經(jīng)濟(jì)現(xiàn)實(shí)。
把這些技術(shù)放在一起看,它們都在回答同一個(gè)問(wèn)題:這一輪推理,LLM 應(yīng)該"看到"什么?System prompt 是預(yù)加載的背景,few-shot examples 是塞進(jìn)去的參考案例,RAG 檢索是按需拉取的外部知識(shí),tool schema 是能力的說(shuō)明書(shū),用戶消息是實(shí)時(shí)輸入。所有東西都是 context 的一部分,所有決策都是 context 管理決策。
有人開(kāi)始用"context engineering"這個(gè)詞來(lái)描述這件事。它不是 prompt engineering 的新說(shuō)法,而是一個(gè)更大的框架:怎么組織信息,讓有限的工作記憶處理超出其容量的任務(wù)。
人類解決這個(gè)問(wèn)題已經(jīng)有很長(zhǎng)的歷史。組織架構(gòu)本身就是一套 context 管理系統(tǒng)——誰(shuí)需要知道什么,信息怎么流動(dòng),在哪里匯總,在哪里展開(kāi)。專業(yè)分工讓不同的人處理不同的信息,層級(jí)結(jié)構(gòu)讓細(xì)節(jié)在底層處理、結(jié)論向上傳遞,文檔系統(tǒng)把信息外化、需要時(shí)再加載。
但人類還有一些更底層的機(jī)制,AI 目前沒(méi)有對(duì)應(yīng)物。
漸進(jìn)遺忘:人類的記憶不是"有"或"沒(méi)有",而是會(huì)逐漸模糊。你記得三年前和某人吃過(guò)飯,細(xì)節(jié)沒(méi)了,但"那次聊得挺愉快"的印象還在,這種低精度的記憶仍然能指導(dǎo)決策。AI 的 context 是二元的,在窗口里就完整保留,不在就徹底消失。
重要性標(biāo)記:你更容易記住讓你意外、緊張、開(kāi)心的事情,情緒充當(dāng)了重要性的標(biāo)簽。AI 沒(méi)有這種內(nèi)在的重要性判斷——它只能依靠位置(最近的更重要)或外部規(guī)則(用戶說(shuō)重要的更重要)來(lái)決定保留什么。
重建而非檢索:人類回憶不是從存儲(chǔ)里讀取文件,而是每次基于碎片重新構(gòu)建。這意味著同一段經(jīng)歷在不同情境下回想會(huì)呈現(xiàn)不同的側(cè)面,有失真的風(fēng)險(xiǎn),但也有適應(yīng)當(dāng)前需求的能力。
這些機(jī)制能直接移植到 AI 嗎?不一定。
人類的記憶機(jī)制是為人類的任務(wù)優(yōu)化的。人類的"任務(wù)"是什么?活下去、繁衍、維持社會(huì)關(guān)系——模糊、長(zhǎng)期、多目標(biāo)。漸進(jìn)遺忘、情緒標(biāo)記、重建式記憶,在這個(gè)框架下是 adaptive 的。AI agent 的任務(wù)通常更明確、更短期、更單一:寫(xiě)這份報(bào)告、修這個(gè) bug、回答這個(gè)問(wèn)題。在這種任務(wù)下,人類記憶機(jī)制的"模糊性"可能反而是負(fù)擔(dān),你不希望 agent "隱約記得"你的需求是什么。
但有一個(gè)趨勢(shì):AI 的任務(wù)正在變化。從單輪問(wèn)答到長(zhǎng)程對(duì)話,從執(zhí)行指令到自主規(guī)劃,從單獨(dú)工作到多 agent 協(xié)作,任務(wù)變得更模糊、更長(zhǎng)期、更復(fù)雜。這意味著為簡(jiǎn)單任務(wù)設(shè)計(jì)的 context 管理方式,可能在新的任務(wù)類型上失效。
還有一個(gè)問(wèn)題值得展開(kāi):當(dāng) context 經(jīng)過(guò)多次處理后,它還可靠嗎?
壓縮會(huì)丟細(xì)節(jié),摘要會(huì)引入偏差,跨 agent 傳遞時(shí)每一方都只傳自己認(rèn)為重要的內(nèi)容。鏈條拉長(zhǎng)后,最終 agent 做決策時(shí)依據(jù)的信息,可能和原始事實(shí)有顯著偏離。這個(gè)問(wèn)題人類也有,叫組織里的信息失真——一線發(fā)生的事,經(jīng)過(guò)幾層匯報(bào)傳到?jīng)Q策者那里,可能已經(jīng)變形了,每一層都在壓縮、都在篩選、都在用自己的框架重新解讀。
人類發(fā)展出一些對(duì)策:冗余通道,同一件事通過(guò)多條線傳遞來(lái)交叉驗(yàn)證;越級(jí)機(jī)制,允許信息繞過(guò)某些層級(jí)直接向上;實(shí)地考察,決策者偶爾下到一線直接接觸未經(jīng)過(guò)濾的信息;匿名反饋,讓原本不敢說(shuō)的話有出口。這些機(jī)制的共同點(diǎn)是給被壓縮掉的信息一條繞過(guò)壓縮的路徑。
AI 系統(tǒng)需要對(duì)應(yīng)的設(shè)計(jì)嗎?如果一個(gè) SubAgent 的摘要漏掉了關(guān)鍵信息,主 agent 怎么知道?如果 context 經(jīng)過(guò)多輪壓縮后失真了,系統(tǒng)怎么發(fā)現(xiàn)?目前沒(méi)有好的答案,這是 context engineering 還沒(méi)認(rèn)真處理的一個(gè)維度。
現(xiàn)在回到開(kāi)頭的問(wèn)題。Damasio 的研究告訴我們,約束不是決策的障礙,而是決策的前提。Elliot 失去了幫他篩選的機(jī)制,獲得了"純粹理性"的分析能力,結(jié)果是癱瘓。
AI 領(lǐng)域正在發(fā)生一件事:context window 在快速擴(kuò)大。幾年前4K tokens,現(xiàn)在128K 是標(biāo)配,有的模型宣稱支持百萬(wàn)甚至千萬(wàn)級(jí)別。如果這個(gè)趨勢(shì)持續(xù),context 容量可能很快不再是硬約束。
這是好事嗎?不一定。容量約束消失后,問(wèn)題不會(huì)消失,只會(huì)換一種形式。如果你有無(wú)限的 context,但沒(méi)有機(jī)制告訴你什么重要、什么可以忽略,你會(huì)陷入 Elliot 的困境:所有信息同等重要,等于沒(méi)有信息重要。你需要的不是更大的窗口,而是一套篩選標(biāo)準(zhǔn)。
約束可以是容量的(塞不下),也可以是注意力的(看不過(guò)來(lái)),也可以是經(jīng)濟(jì)的(付不起),也可以是認(rèn)知的(不知道該關(guān)注什么)。移除一種約束,另一種會(huì)變得突出。人類用情緒、直覺(jué)、經(jīng)驗(yàn)沉淀下來(lái)的"感覺(jué)"來(lái)提供認(rèn)知約束,AI 目前沒(méi)有對(duì)應(yīng)物,它的篩選標(biāo)準(zhǔn)來(lái)自外部:位置、規(guī)則、用戶指令。當(dāng)容量不再是瓶頸時(shí),這個(gè)缺失會(huì)變得更明顯。
所以,最后一個(gè)問(wèn)題:當(dāng) context 容量不再是瓶頸時(shí),什么會(huì)成為新的瓶頸?
也許答案是:一套內(nèi)生的重要性判斷機(jī)制——不依賴外部規(guī)則,能讓系統(tǒng)自己知道該關(guān)注什么、可以忽略什么。Elliot 需要的不是更大的腦容量,他需要的是一個(gè)能告訴他"這個(gè)選項(xiàng)不對(duì)勁"的聲音。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.