![]()
這項由滑鐵盧大學領導的研究發表于2026年2月的計算機科學期刊arXiv,論文編號為arXiv:2602.20122v1。有興趣深入了解的讀者可以通過該編號查詢完整論文。
想象一下,你的朋友突然說出了一個你從未教過他的知識點,你肯定會好奇:"你是從哪里學會的?"對于人工智能大模型來說,同樣存在這個謎題。當ChatGPT或其他AI助手回答你的問題時,它們展現出驚人的知識儲備,但這些知識究竟來自哪里?是從訓練數據中"死記硬背"學來的,還是通過某種"推理"能力獲得的?更有趣的是,當我們給AI提供額外信息時,它們是完全依賴這些外部信息,還是會將其與自己"記憶"中的知識相結合?
長期以來,研究人員就像面對一個巨大的黑盒子,無法真正了解AI大模型的知識來源。這種情況就好比你想知道一本菜譜是否真的好用,但廚師從不告訴你他用了哪些食材,也不讓你看他的購物清單。訓練數據通常是保密的,研究人員根本無法追蹤模型學到的知識到底源自何處。
最近,這種局面終于發生了改變。滑鐵盧大學的研究團隊抓住了一個千載難逢的機會:一個名為nanochat的小型AI模型家族公開了所有訓練數據。這些模型完全基于FineWeb-Edu語料庫進行訓練,這個語料庫包含1000億個來自教育網站的詞匯,就像一個完全透明的圖書館,每本書、每個章節都清清楚楚。
基于這個透明的環境,研究團隊開發了NanoKnow——一個專門用于追蹤AI知識來源的"偵探工具包"。這個工具包的工作原理就像一位經驗豐富的圖書管理員,能夠準確地告訴你某個問題的答案是否曾經出現在圖書館的某本書中。
NanoKnow的核心創新在于將問題分為兩大類:一類是"見過答案"的問題,也就是答案確實存在于訓練數據中;另一類是"沒見過答案"的問題,答案在訓練數據中找不到蹤跡。通過這種分類,研究人員終于可以科學地研究AI模型在不同情況下的表現差異。
創建這個分類系統并不簡單,就像一個偵探破案需要多重驗證一樣。研究團隊首先使用BM25搜索算法在整個語料庫中尋找可能包含答案的文檔,這就像用關鍵詞在圖書館中初步篩選相關書籍。然后,他們檢查這些文檔中是否真的包含問題的答案,這個過程類似于逐頁翻閱,尋找確切的信息。最后,也是最關鍵的一步,他們使用另一個AI模型來驗證找到的答案是否真正回答了問題,而不僅僅是巧合出現了相同的詞匯。
這種三重驗證機制確保了分類的準確性。比如,對于問題"2018年美國職業棒球大聯盟賽季什么時候開始和結束?",系統不僅要在文檔中找到"3月29日"和"10月31日"這些日期,還要確認這些日期確實是在回答關于2018年棒球賽季的問題,而不是在討論其他年份或其他體育賽事。
通過這種方法,研究團隊發現了一個令人驚訝的事實:在自然問題數據集中,有66.2%的問題在訓練數據中都能找到答案;在閱讀理解數據集SQuAD中,這個比例更高,達到70.9%。這意味著大部分我們認為需要"智能推理"的問題,其實AI早就在訓練時"見過"答案了。
一、記憶力與頻率的神奇關系
有了這個"偵探工具包",研究團隊開始探索一個關鍵問題:AI模型是否像人類一樣,見過的次數越多,記得越牢?為了回答這個問題,他們統計了每個答案在訓練數據中出現的頻率,并將問題按照答案出現頻率分為四個等級:罕見(1-5次)、較少(6-20次)、中等(21-50次)和頻繁(51次以上)。
實驗結果證實了一個直觀的猜想:AI模型的"記憶力"確實與見過的次數密切相關。當研究人員讓模型在沒有任何外部提示的情況下回答問題時,答案在訓練數據中出現頻率高的問題,模型答對的概率要比罕見問題高出一倍多。這就好比你在準備考試時,反復練習的題目在考場上更容易答對,而只看過一遍的題目就容易忘記。
更有趣的是,這種"頻率效應"不僅存在于純記憶場景中。即使研究人員為模型提供了包含答案的外部文檔(就像開卷考試一樣),那些在訓練時見過更多次的問題仍然表現更好。這說明AI模型的"記憶"和外部信息并不是簡單的替代關系,而是會相互增強。就像一個學生即使可以查閱資料,但對熟悉知識點的理解和運用仍然更加得心應手。
不過,研究也發現了一個重要的限制:只有參數量達到一定規模的模型才表現出明顯的"頻率記憶"現象。最小的模型(約5.6億參數)幾乎沒有表現出這種規律,這提示我們AI的"記憶能力"需要足夠的"大腦容量"作為基礎。
二、開卷與閉卷的智慧較量
在傳統教育中,開卷考試通常比閉卷考試容易得多。AI模型是否也遵循這個規律呢?研究團隊設計了一系列對比實驗,讓同一個模型分別在"閉卷"(僅憑記憶回答)和"開卷"(提供相關文檔)兩種條件下回答相同問題。
結果顯示,外部信息的加入確實能顯著提升AI的表現。在沒有任何外部提示的情況下,最強的模型在SQuAD數據集上的準確率約為23%,但當研究人員為其提供包含答案的訓練文檔時,準確率躍升至59%。這種提升幅度就像學生從閉卷考試的及格邊緣一躍成為優等生。
然而,更有趣的發現是,不同規模的模型從外部信息中獲益的程度并不相同。較小的模型從外部信息中獲得的提升更加顯著——這些模型的準確率提升了4.4倍,而大模型的提升幅度相對較小,約為2.6倍。這個現象類似于基礎薄弱的學生更需要參考資料的幫助,而基礎扎實的學生即使不查資料也能表現不錯。
研究還對比了兩種不同的"開卷"方式:一種是提供訓練數據中的原始文檔,另一種是提供專門為問題定制的標準答案文檔。結果發現,定制的答案文檔總是比原始訓練文檔效果更好。這就像考試時,專門的答案解析比教科書原文更容易幫助學生找到正確答案。
三、見過與沒見過的知識鴻溝
一個更深層的問題是:當AI模型面對完全陌生的問題時,外部信息能否有效彌補這種知識空白?為了探索這個問題,研究團隊比較了模型在"見過答案"和"沒見過答案"兩類問題上的表現差異。
即使在提供相同外部信息的情況下,模型在"見過答案"的問題上仍然表現更好。這個現象非常引人深思:它表明AI模型的內在記憶和外部信息之間存在某種協同效應,而不是簡單的信息替換。就像一個對某個領域有基礎了解的人,即使面對相同的參考資料,也能比完全外行的人更好地理解和運用這些信息。
這種差異在所有規模的模型中都存在,而且隨著模型規模的增大而變得更加明顯。最大規模的模型在"見過答案"問題上的準確率比"沒見過答案"問題高出約4個百分點,這個差距看似不大,但在AI應用中已經是相當顯著的改進。
四、干擾信息的微妙影響
在現實應用中,AI系統往往需要從大量信息中篩選出有用的內容,其中難免混雜著一些無關信息。研究團隊專門設計實驗來考察這種"信息污染"對AI性能的影響。
他們構建了幾種不同的信息呈現方式:將正確答案文檔放在最遠離問題的位置(模擬信息被"埋沒"的情況)、放在中間位置(被無關信息包圍)、放在最靠近問題的位置(最容易被注意到),以及完全不提供正確信息而只給出干擾信息。
實驗結果揭示了AI模型的一個重要弱點:即使模型在訓練時"見過"正確答案,干擾信息仍會顯著影響其表現。當只提供干擾信息而不給出正確答案時,模型的準確率竟然比完全依靠記憶回答還要低。這就像一個本來知道答案的學生,看到錯誤的參考資料后反而變得困惑了。
更令人擔憂的是,隨著干擾信息數量的增加,模型的表現會急劇惡化。從提供1個干擾文檔到提供4個干擾文檔,準確率下降了約23%。這種現象被研究人員稱為"迷失在中間"效應——當有用信息被大量無關信息包圍時,AI模型就像在信息海洋中迷失了方向。
正確信息的位置也至關重要。當答案文檔緊鄰問題時,模型表現最佳;當答案被夾在干擾信息中間時,表現最差。這個發現對設計實用的AI系統具有重要啟示:如何組織和呈現信息對AI的性能有著決定性影響。
五、揭開AI知識迷霧的意義
這項研究的價值不僅在于回答了"AI如何知道它們知道什么"這個根本問題,更重要的是為未來的AI研究和應用開辟了新的道路。通過NanoKnow這個"偵探工具包",研究人員首次能夠系統地分析AI知識的來源和運用機制。
研究發現證實了學術界長期以來的多項推測:AI的"智能"很大程度上依賴于訓練數據中的頻繁模式,外部信息能夠彌補記憶的不足但無法完全替代內在知識,干擾信息會顯著損害AI的判斷能力。這些發現為理解當前AI系統的能力邊界提供了科學依據。
對于普通用戶而言,這些發現也有著實際意義。當我們與AI助手互動時,了解它們更容易在哪些類型的問題上出錯,如何更好地提供背景信息,以及如何避免信息混淆,都將幫助我們更有效地利用這些工具。
該研究團隊已將NanoKnow的所有組件開源發布,包括問題分類數據、搜索索引和評估代碼。這種開放態度將推動更多研究人員探索AI知識機制的奧秘,也為開發更加可靠、透明的AI系統奠定了基礎。
說到底,這項研究就像為AI的"大腦"裝上了一臺X光機,讓我們第一次清晰地看到知識在人工智能中的存儲、檢索和運用過程。雖然我們距離完全理解AI的智能機制還有很長的路要走,但這種透明度的提升無疑是朝著更可信、更可控的AI未來邁出的重要一步。隨著越來越多的開源AI模型和數據集的出現,我們有理由期待在不久的將來,AI的"思維過程"將變得像算數公式一樣透明清晰。
Q&A
Q1:NanoKnow是什么工具?
A:NanoKnow是滑鐵盧大學開發的AI知識來源追蹤工具,能夠準確識別AI模型的答案是來自訓練數據中的"記憶"還是外部提供的信息。它將問題分為"見過答案"和"沒見過答案"兩類,幫助研究人員科學分析AI的知識獲取和運用機制。
Q2:AI模型回答問題時主要依靠什么?
A:研究發現AI模型主要依靠訓練時"見過"的知識來回答問題。答案在訓練數據中出現頻率越高,模型答對的概率越大。即使提供外部信息,模型在"見過"的問題上仍然表現更好,說明內在記憶和外部信息會相互增強。
Q3:干擾信息會如何影響AI模型表現?
A:干擾信息會顯著降低AI模型的準確率,即使模型訓練時見過正確答案。隨著干擾信息增加,準確率會急劇下降約23%。當正確答案被干擾信息包圍在中間位置時,模型表現最差,這被稱為"迷失在中間"效應。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.