![]()
新智元報道
編輯:傾傾
【新智元導(dǎo)讀】高分模型未必懂科學(xué),有的只是在「死記硬背」!MIT揭秘:模型越聰明,對物質(zhì)的理解就越趨同。既然真理路徑已清晰,我們何必再深陷昂貴的算力競賽?
現(xiàn)在的AI for Science,就像一場「多國峰會」,大家用不同的語言描述同一件事。
有人讓AI讀SMILES字符串,有人給AI看原子的3D坐標(biāo),大在不同的賽道上比誰預(yù)測得準(zhǔn)。
但有一個問題:這些AI是在「找規(guī)律」,還是真的理解了背后的物理真相?
在MIT的一項研究中,研究員把59個「出身」不同的模型湊在一起,觀察它們在理解物質(zhì)時,隱藏層表達(dá)是否相同 。
![]()
論文鏈接:https://arxiv.org/abs/2512.03750
結(jié)果非常驚人:雖然這些模型看數(shù)據(jù)的方式天差地別,但只要它們變得足夠強(qiáng)大,它們對物質(zhì)的理解就會變得極度相似 。
更神奇的是,一個讀文字的代碼模型,竟然能和一個算受力的物理模型在「認(rèn)知」上高度對齊 。
它們沿著不同的路,爬到了同一座山峰的頂端,開始共同描繪物理與現(xiàn)實(shí)的「終極地圖」。
真理的匯合:為什么頂尖模型越長越像?
為了驗(yàn)證這些模型是否真的在靠近真理,研究者引入了一個關(guān)鍵指標(biāo):表征對齊度。
簡單來說,就是看兩個模型在處理同一個分子時,它們腦子里的思路有多相似。
結(jié)果發(fā)現(xiàn),性能越強(qiáng)的模型,思維方式就越接近。
在實(shí)驗(yàn)中,隨著模型預(yù)測物質(zhì)能量準(zhǔn)確度的提升,這些模型在表達(dá)空間里會自發(fā)地向同一個方向靠攏。
![]()
性能與認(rèn)知的同步:能量預(yù)測越精準(zhǔn),模型與頂尖基座的思維方式就越趨同。每個點(diǎn)代表一個模型;點(diǎn)大小對應(yīng)模型大小。
盡管這些AI的架構(gòu)千差萬別,但它們在處理同一批分子數(shù)據(jù)時,其特征空間的復(fù)雜度竟然壓縮到了一個非常窄的范圍。
無論模型外殼多么復(fù)雜,它們最后抓取的都是最核心、最精簡的物理信息 。
![]()
化繁為簡:雖然AI架構(gòu)各異,但它們提取的物質(zhì)特征在數(shù)學(xué)復(fù)雜度上卻「殊途同歸」。
這一特征在Orb V3這樣的模型上更加明顯。
![]()
跨架構(gòu)的表征對齊:矩陣中的深色區(qū)域顯示了Orb V3等高性能模型與其它嚴(yán)謹(jǐn)物理模型(如MACE、EqV2)之間強(qiáng)烈的共鳴。
通過更自由的訓(xùn)練,它們可以更精準(zhǔn)地對齊物理規(guī)律。
這也說明,當(dāng)喂給AI的數(shù)據(jù)足夠多、訓(xùn)練方式足夠?qū)β罚踔聊茉竭^人類現(xiàn)有的公式,自己摸索出物質(zhì)運(yùn)行的本質(zhì)規(guī)律。
這種收斂現(xiàn)象表明,AI并沒有胡思亂想,它們正在合力挖掘物質(zhì)世界那個唯一、真實(shí)、且客觀的底層邏輯 。
不止分子,連「貓」都一樣!
你以為這種「英雄所見略同」只發(fā)生在科學(xué)AI里?大錯特錯!
有研究者把純文本的語言模型(比如GPT系列)和純圖像的視覺模型(比如CLIP或DALL·E背后的模型)拉出來比對,結(jié)果發(fā)現(xiàn),它們對「貓」的理解,竟然越來越像!
![]()
在語言模型里,「貓」的向量表示會緊緊靠近「毛茸茸」「喵喵叫」「寵物」「抓老鼠」這些詞。
在視覺模型里,「貓」的向量則靠近胡須、圓眼睛、軟毛、優(yōu)雅的尾巴等視覺特征。
![]()
本來兩個模型一個只看文字、一個只看圖片,壓根沒交集。
但模型規(guī)模越大、性能越強(qiáng),這兩個完全不同模態(tài)的「貓」表示,就在線性空間里越靠越近,仿佛在共享同一個「貓的本質(zhì)」!
這意味著AI不管從文字、圖像、分子結(jié)構(gòu)還是3D坐標(biāo)切入,只要足夠強(qiáng)大,就會在內(nèi)部悄悄趨向同一個對現(xiàn)實(shí)的「內(nèi)在圖景」。
高分不是真理,警惕「迷路」的AI
高性能模型都在山頂匯合,那剩下的模型都在干什么?
研究者發(fā)現(xiàn),性能不佳的模型有兩種「死法」:一種是各想各的,在錯誤的道路上漸行漸遠(yuǎn);另一種則是集體變笨,雖然想的一樣,但都漏掉了關(guān)鍵信息。
有些模型雖然跑分不錯,但思維方式卻非常孤僻。
比如MACE-OFF,它在處理某些分子任務(wù)時表現(xiàn)很強(qiáng),但它的表征對齊度卻極低,完全不能融入主流高性能模型。
它可能只是在特定領(lǐng)域里找到了某種規(guī)律,一旦跨出這個舒適區(qū),它的經(jīng)驗(yàn)就很難轉(zhuǎn)移到其他科學(xué)任務(wù)上。
![]()
圖中白色的點(diǎn)代表模型從未見過的分子結(jié)構(gòu)。可以看到,模型在處理這些結(jié)構(gòu)時誤差(MAE)激增,且表征完全偏離了正常的物理分布。
而當(dāng)AI遇到訓(xùn)練數(shù)據(jù)里從未出現(xiàn)過的物質(zhì)時,它們往往會放棄思考,一起擺爛,或者集體走進(jìn)算法設(shè)計者留下的「舒適區(qū)」,丟掉了物質(zhì)最核心的化學(xué)特征。
由此可見,訓(xùn)練數(shù)據(jù)不僅僅是模型的養(yǎng)料,更是決定模型能否觸碰真理的基礎(chǔ)。
如果數(shù)據(jù)不夠多樣,哪怕模型的架構(gòu)再精妙,也終究只是在原地踏步,無法進(jìn)化成真正的通用基座模型。
真理唯一,我們離算力自由還有多遠(yuǎn)
既然實(shí)驗(yàn)已經(jīng)證明,不同的AI都在向同一種物理理解靠攏,那我們還有必要堆昂貴的顯卡,從頭訓(xùn)練一個超級大模型嗎?
很顯然,沒有。而且AI已經(jīng)替我們找到了一條捷徑——「模型蒸餾」。
研究發(fā)現(xiàn),規(guī)模較小的模型,通過模仿那些高性能基座模型的「思維方式」,也能表現(xiàn)出驚人的潛力。
我們不再需要盲目追求參數(shù)量的堆砌,而是利用「真理收斂」的特性,把大模型的知識復(fù)刻到更輕量、更高效的小模型身上。
![]()
圖中圓點(diǎn)的大小代表模型參數(shù)量。可以看到,即使是較小的模型,只要其表征能與最佳性能模型對齊,同樣能在分子能量預(yù)測任務(wù)中獲得極高的準(zhǔn)確度。
這對未來模型的開發(fā)具有深遠(yuǎn)的意義。
Orb V3向我們展示了「苦澀的教訓(xùn)」的另一種解法:通過大規(guī)模訓(xùn)練和聰明的正則化手段,簡單的架構(gòu)同樣能學(xué)到那些昂貴的、強(qiáng)加物理限制的模型才有的理解力 。
![]()
多元架構(gòu)的對比(部分):論文評估了包括Orb、MACE、DeepSeek在內(nèi)的近60種模型,為科學(xué)家的選擇提供了定量依據(jù)。
在未來,評估一個科學(xué)AI的標(biāo)準(zhǔn)將變得更加多元。我們不僅看它當(dāng)下的「考分」,更要看它是否踏入了「真理的收斂圈」。
一旦我們掌握了這種對齊的邏輯,科學(xué)發(fā)現(xiàn)將不僅是巨頭們的算力競賽,更多輕量級、針對特定場景的AI將如雨后春筍般涌現(xiàn),真正實(shí)現(xiàn)「算力自由」下的創(chuàng)新爆發(fā)。
MIT的研究給狂熱的AI競賽澆了一盆冷水,但也指了一條明路。
科學(xué)AI的進(jìn)階之路,不再是更復(fù)雜的架構(gòu),也不是更漂亮的物理公式,而是看誰能更穩(wěn)地進(jìn)入那個「收斂圈」。
我們不需要沉默算力競賽,因?yàn)檎胬淼穆窂揭呀?jīng)清晰——所有聰明的模型都在往一處跑,那么通過「表征對齊」來實(shí)現(xiàn)模型的輕量化和知識遷移,就成了最務(wù)實(shí)的工程方案。
未來的科學(xué),將屬于那些懂得利用收斂性來降低成本的人。
參考資料:
https://the-decoder.com/scientific-ai-models-trained-on-different-data-are-learning-the-same-internal-picture-of-matter-study-finds/
https://arxiv.org/abs/2512.03750
https://www.quantamagazine.org/distinct-ai-models-seem-to-converge-on-how-they-encode-reality-20260107/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.