henry 發自 凹非寺
量子位 | 公眾號 QbitAI
能無限進步的「超級智能體」來了!
最近,Meta研究團隊的一篇題為HYPERAGENTS(超級智能體)的論文迅速刷屏。
![]()
這篇論文將LSTM之父Jürgen Schmidhuber二十年前提出的哥德爾機(G?del Machine)思想,與達爾文開放算法相結合,提出了能持續自我迭代的達爾文哥德爾機
基于此這一思想,Agent不僅能更好地完成具體任務、持續提高自身表現。
更關鍵的是,它可以不斷優化“改進自身”的底層邏輯,實現“元學習(Meta-learning)”
這,便是論文定義的新一代超級智能體——Hyperagents
論文更進一步提出:未來AI有望通過持續自我迭代,最終突破人類預設的初始算法邊界,也正因如此,AI安全必須被擺在核心位置。
不少網友也感慨道:
- 元學習真正讓人既害怕又興奮的,是元層面的改進能夠跨領域遷移。這不是在某一件事上變得更厲害,而是學會了在一切事情上變得更厲害。
![]()
目前,這篇論文已被ICLR 2026接收。
![]()
從哥德爾機到達爾文哥德爾機
要理解超級智能體Hyperagents,必須先了解它的基石——
哥德爾機(G?del Machine)
哥德爾機是一種假設性的自我完善型AI。它在數學上尋求證明:
如果存在某種更好的策略,它會通過遞歸重寫自身代碼來解決問題。
而這一假設,最早由尤爾根·施密德胡伯(Jürgen Schmidhuber)在二十多年前提出。
![]()
在傳統機器學習中,AI的“學習方法”是人類預設的硬編碼,它只能通過調整內部參數來逼近目標
而哥德爾機則打破了這一限制,它能夠將算法框架本身視為可編輯的代碼,通過自主重寫程序來實現學習能力的自我演進
但問題也隨之而來:哥德爾機往往要求AI在自我演進之前,證明該改動具備凈收益。
也就是說,改代碼花掉的算力成本,未來能不能通過更強的性能賺回來?
不幸的是,這種計算在現實中的復雜任務中幾乎是無法實現的。
針對這一問題,Meta團隊提出達爾文哥德爾機(DGM),它利用開放式算法(Open-ended algorithms),通過在大模型提議的代碼改進方案中進行搜索,獲取能從經驗上提升性能的方案。
![]()
換句話說,DGM利用基礎模型來提議代碼改進方案,并利用開放式算法的最新創新成果,來搜索并構建一個不斷增長的、多樣化且高質量的AI智能體庫。
基于此,DGM能創造出各種自我改進方案,例如:增加補丁驗證(Patch Validation)步驟、優化文件查看功能、增強編輯工具、生成并篩選多個解決方案以選出最優解,以及在進行新更改時,會自動添加歷史嘗試記錄(并分析失敗原因)以供參考。
論文的實驗還表明,DGM獲得的算力越多,自我提升效果越好。
超級智能體
雖然DGM很強,但它存在一個致命限制:它主要在編程任務中有效
這是因為DGM依賴一個關鍵假設——評估任務與自我修改任務必須“對齊”。
![]()
在編程領域,這種對齊是天然的:提升了編程能力,自然也就提升了修改自身代碼的能力。
也就是說,解決外部編程問題的邏輯工具,可以直接轉化為修改其自身底層代碼的能力。
相反,如果是在非編程領域(如寫詩),即便提升了寫詩能力,也無法直接轉化為修改代碼的邏輯水平。
在這種缺乏“自指性(Self-referentiality)”的任務中,DGM的遞歸進化鏈條就會斷裂,陷入停滯。
基于此,文章提出超級智能體——
它們既能修改自己的任務執行行為,也能修改生成未來改進建議的過程。
這實現了所謂的元認知自我修改(metacognitive self-modification):不僅學習如何做得更好,還學習如何更有效地進行改進。
進一步,論文將超級智能體實例化為DGM-Hyperagents (DGM-H)。
DGM-H是對DGM的擴展,其中任務解決行為和自我改進程序都是可編輯且可進化的,其框架如下:
![]()
- 自指性架構:它將“任務智能體(Task Agent)”與“元智能體(Meta Agent)”整合為一個單一的、可編輯的程序。
- 元級進化:在Hyperagents中,“改進的方法”本身也是可以被改進的。這使得系統不再要求任務與修改必須對齊,從而實現了跨領域的“元認知自我修改”。
打個比方,在Hyperagents中,運動員不僅在訓練,教練也在學習如何更好地執教。由此,運動員的表現和教練的執教水平不斷螺旋上升。
此外,DGM-H還改進了生成新智能體的過程(例如引入持久化記憶、性能追蹤等),且這些元級改進具有跨領域遷移和跨運行累積的特性。
實驗驗證:從20%到50%的跨越
實驗證明,達爾文哥德爾機(Darwin G?del Machine)能夠通過修改自身代碼庫實現持續的自我提升。
在SWE-bench上,DGM自動將其性能從20.0%提升至50.0%
![]()
在Polyglot上,DGM的性能從初始的14.2%躍升至30.7%,遠超由Aider開發的具有代表性的人工設計智能體。
![]()
這些結果證明了DGM能發現并實施有效的自我改進。
而實現這一點的關鍵在于其開放式進化搜索策略:
通過從現有智能體庫中采樣生成新智能體,DGM能夠并行探索多條進化路徑。
![]()
性能稍遜的“祖先”智能體在發現新方法和功能方面起關鍵作用,避免了早熟收斂。
![]()
此外,DGM的改進具有廣泛的遷移性:
- 針對Claude 3.5 Sonnet優化的智能體,在切換到o3-mini或Claude 3.7 Sonnet時仍能提升性能。
- 在Polyglot基準中,Python任務上的自我改進同樣提升了Rust、C++、Go等不同語言任務的表現。
![]()
作者介紹
最后,讓我們來介紹一下這篇論文的作者們。
![]()
這篇論文的第一作者是來自UBC的Jenny Zhang,她師從Jeff Clune教授。
![]()
她本科就讀于帝國理工,這篇論文是她在Meta實習期間完成的。她的研究方向專注于強化學習、自改進AI與Open-Ended AI。
Bingchen Zhao是來自愛丁堡大學的博士生,,師從Oisin Mac Aodha教授
他本科畢業于同濟大學,他此前在Meta FAIR團隊,致力于構建自我改進的AI系統。
![]()
Wannan Yang在紐約大學攻讀博士,目前在Meta超級智能實驗室實習,她本科畢業于愛丁堡大學。
![]()
論文的其他作者還包括Jeff Clune、以及來自Meta的研究員Minqi Jiang(已離職)、Sam DevlinTatiana Shavrina。
[1]https://arxiv.org/pdf/2603.19461
[2]https://sakana.ai/dgm/
[3]https://x.com/jennyzhangzt
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.