<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      AEPO:智能體熵平衡策略優化,讓探索更穩,推理更深!

      0
      分享至



      在智能體強化學習的快速發展中,如何在探索與穩定之間取得平衡已成為多輪智能體訓練的關鍵。主流的熵驅動式智能體強化學習(Agentic RL)雖鼓勵模型在高不確定性處分支探索,但過度依賴熵信號常導致訓練不穩、甚至策略熵坍塌問題。

      為此,中國人民大學高瓴人工智能學院與快手 Klear 語言大模型團隊聯合提出 Agentic Entropy-Balanced Policy Optimization(AEPO),一種面向多輪智能體的熵平衡強化學習優化算法。

      AEPO 系統性揭示了「高熵 Rollout 采樣坍縮」和「高熵梯度裁剪」問題,并設計了「動態熵平衡 Rollout 采樣」與「熵平衡策略優化」兩項核心機制。前者通過熵預監控與連續分支懲罰實現全局與局部探索預算的自適應分配,后者在策略更新階段引入梯度停止與熵感知優勢估計以保留高熵 token 的探索梯度。



      圖 1:AEPO 性能概覽:左圖對比深度搜索任務性能,右圖對比通用推理任務性能

      實驗結果表明,AEPO 在 14 個跨領域基準上顯著優于七種主流強化學習算法。特別是深度搜索任務的 Pass@5 指標:GAIA (65.0%), Humanity’s Last Exam (26.0%), WebWalkerQA (70.0%)。在保持訓練穩定性的同時進一步提升了采樣多樣性與推理效率,為通用智能體的可擴展強化訓練提供了新的優化范式。



      • 論文標題:Agentic Entropy-Balanced Policy Optimization
      • 論文鏈接:https://arxiv.org/abs/2510.14545
      • 代碼倉庫:https://github.com/dongguanting/ARPO
      • 開源數據 & 模型:https://huggingface.co/collections/dongguanting/aepo-68ef6832c99697ee03d5e1c7

      目前AEPO 在 X 上收獲極高關注度,Github 倉庫已獲星標 700 余枚,同時榮登 Huggingface Paper 日榜第二名!





      研究動機:在高熵中尋求平衡

      隨著 Agentic RL 的發展,如何在持續探索與訓練穩定之間取得平衡已成制約智能體性能的關鍵。現有方法(如 ARPO)通常依賴熵信號作為依據,并在高熵時刻觸發分支采樣探索潛在推理路徑。我們的研究發現熵驅動的探索雖能提升多樣性,卻也帶來了顯著的訓練不穩定:模型在連續高熵的工具調用階段容易出現單一鏈條過度分支,導致探索受限(如下圖左側);同時在策略更新階段,高熵 token 的梯度常被無差別裁剪,使模型難以學習的探索行為(如下圖右側)。這種熵失衡也使智能體在強化學習中容易陷入局部最優解。



      圖 2:智能體中的高熵 Rollout 坍縮與高熵梯度裁剪現象

      因此,如何在高熵驅動下同時實現高效探索與穩定優化,成為智能體強化學習亟待突破的核心瓶頸。為此,我們提出 AEPO,一種面向多輪智能體的熵平衡強化學習優化算法。我們的貢獻如下:

      • 我們系統性分析并揭示了現有熵驅動的 Agentic RL 在高熵階段易出現的「rollout 坍縮」和「梯度裁剪」問題,為后續算法設計提供了經驗與理論依據。
      • 我們提出了 AEPO 算法,旨在通過「動態熵平衡 Rollout 采樣」與「熵感知策略優化」兩個階段實現強化學習探索與穩定的協同優化。
      • 在 14 個挑戰性基準上的實驗結果表明,AEPO 在采樣多樣性、訓練穩定性及工具調用效率方面均優于 7 種主流強化學習算法,為智能體在復雜開放環境下的可擴展訓練提供了新的啟發。

      工具調用的熵變現象:高熵集聚與梯度困境

      通過分析智能體在多輪工具調用強化學習中的 token 熵變與訓練過程,我們發現以下核心現象:

      1. 高熵工具調用步驟存在連續性:連續的高熵工具調用輪次占比達 56.5%,部分軌跡甚至出現 6 次連續高熵調用,這種連續性導致 rollout 階段的分支預算分配嚴重傾斜(如下圖左側);
      2. 高熵 Token 梯度裁剪:傳統 Agentic RL 算法在策略更新階段存在「無差別梯度裁剪」問題,未區分其是否包含有價值的探索行為,這些 token 大多是在推理中激發工具調用,反思等行為的提示(如下圖右側)。



      圖 3:智能體強化學習訓練中兩種熵相關問題的量化統計

      上述現象本質是高熵信號的雙重矛盾:高熵是智能體探索工具使用潛力的必要條件,但無約束的高熵連續性會破壞 rollout 資源分配,激進的梯度裁剪又會扼殺高熵的探索價值。

      AEPO 算法:熵驅動的精準探索與梯度保護



      圖 4:AEPO 概述

      動態熵平衡 Rollout 采樣:

      1.熵預監測:按信息增益分配采樣預算

      傳統 RL 算法(如 ARPO)憑經驗分配全局采樣與分支采樣的坍縮資源,AEPO 則基于信息增益理論,根據問題與工具的信息增益動態調整采樣預算,具體來說,在總 rollout 采樣的預算為 k(包含 m 次全局采樣與 k-m 次高熵分支采樣)的條件下,將 Rollout 階段的信息增益簡單地建模為:



      在語言模型的自回歸解碼過程中,輸入問題的信息增益通常由模型解碼的 token 熵值來衡量,因此我們可以得到如下正相關關系:



      因此,我們的目標是盡可能增大 Rollout 階段的信息增益,基于上述公式,AEPO 按信息增益分配采樣預算:





      2.連續高熵分支懲罰:避免單一軌跡過度分支

      即使預算分配合理,連續高熵調用仍可能導致單一軌跡過度分支。因此 AEPO 通過動態分支概率施加懲罰:



      實驗驗證:如下圖所示,相比于 ARPO 通常僅分支 2-3 條軌跡,而AEPO 可覆蓋全部 8 條預算軌跡(右圖),采樣聚類數從 54 提升至 62(左 2 圖),大幅提升 Rollout 采樣的多樣性。



      圖 5:采樣多樣性 ARPO vs AEPO(左)與 Rollout 的分支采樣分布(右)

      熵平衡策略優化:

      1.熵裁剪平衡機制:保留高熵 Token 梯度

      收到 GPPO 啟發,AEPO 將「梯度停止」操作融入到策略更新的高熵裁剪項中,保證了前向傳播不受影響,同時保護了高熵 token 的梯度在反向傳播時不被裁剪。AEPO 在策略更新時使用如下公式:











      這一設計讓高熵探索性 Token 的梯度得以保留,避免訓練初期探索能力流失。

      2.熵感知優勢估計:優先學習高價值探索行為





      實驗結果:14 個基準驗證 AEPO 的高效與穩定

      為了充分評估 AEPO 的泛化性和高效性,我們考慮以下三種測試集:

      • 計算型推理任務:評估模型的計算推理能力,包括 AIME24、AIME25、MATH500、GSM8K、MATH。
      • 知識密集型推理任務:評估模型結合外部知識推理的能力,包括 WebWalker、HotpotQA、2WIKI、MisiQue、Bamboogle。
      • 深度搜索任務:評估模型的深度搜索能力,包括 HLE、GAIA、SimpleQA、XBench、Frames。

      深度信息檢索任務:小樣本實現大突破





      如上表所示,僅用 1K RL 訓練樣本,Qwen3-14B+AEPO 在關鍵任務上表現優異:

      • AEPO 在 Pass@1 上較 ARPO 平均提升 3.9%;在 Pass@5 上較 ARPO 平均提升 5.8%;
      • 對比梯度裁剪優化 RL 算法(DAPO、CISPO、GPPO):AEPO 在 GAIA 任務上領先 7%-10%,在 Qwen3-14B 基座上取得了 47.6% 的 Pass@1 與 65% 的 Pass@5,這證明熵平衡機制優于單純的梯度裁剪優化 RL 算法;
      • 對比傳統 RL(GRPO、Reinforce++):AEPO 在 HLE 任務上領先 2.6%-3.4%,在 Qwen3-14B 基座上取得了 11.2% 的 Pass@1 與 26% 的 Pass@5,凸顯 Agentic RL 中熵平衡的必要性。



      我們比較了 7 種強化學習算法在 10 個推理任務中的表現,發現:

      • 梯度裁剪優化算法的穩定性差:在 Qwen 2.5-7B-instruct 上,梯度裁剪優化算法表現良好,但在 Llama3-8B 上未顯著優于 GRPO,且易導致熵崩潰。
      • Agentic RL 算法具備泛化能力:ARPO,GIGPO,AEPO 等算法在不同模型上表現穩定,證明在高熵環境下的分支探索有效。
      • AEPO 優勢顯著:AEPO 在所有測試中表現突出,一致性高于 7 種主流 RL 算法。并且平均準確率比 GRPO 高 5%,更適合訓練多輪次 Web 智能體。

      實驗:熵穩定與準確率分析

      在 Agentic RL 訓練中,熵動態穩定性與訓練準確率收斂性是衡量算法有效性的核心指標:熵過高易導致探索失控,熵過低則會引發探索不足;而準確率的持續提升則直接反映模型對有效工具使用行為的學習能力。

      我們對比 AEPO 與主流 RL 算法(含 ARPO、GRPO、DAPO 等)在 10 個推理任務中的訓練動態,清晰揭示了 AEPO 在「熵穩定」與「準確率提升」雙維度的優勢。實驗發現訓練的熵損失驟增與下降都不會對性能帶來增益;相比之下,AEPO 的熵損失全程維持高且穩定,對應穩定的性能增益。其表現遠超其他 RL 算法,且解決了 ARPO 在訓練后期熵波動的問題。



      圖 5:訓練指標可視化,包括各訓練步驟的熵損失(左)和準確率(右)

      總結與未來展望

      未來可從三個方向進一步拓展:

      • 多模態 Agent:當前 AEPO 與 ARPO 均聚焦文本任務,未來可擴展至圖像、視頻等多模態輸入,探索多模態工具的熵平衡優化,解決多模態反饋帶來的熵波動問題。
      • 工具生態擴展:引入更復雜工具(如 MCP 服務、外部訂機票酒店服務調用、代碼調試器),基于 AEPO 的熵感知機制優化多工具協作策略,提升復雜任務表現,超越現有工具協作能力。
      • 多智能體強化學習:探索在更多智能體的協作學習,互相任務交互與博弈中找到平衡,實現收斂。

      作者介紹

      董冠霆目前就讀于中國人民大學高瓴人工智能學院,博士二年級,導師為竇志成教授和文繼榮教授。他的研究方向主要包括智能體強化學習、深度搜索智能體,大模型對齊等。在國際頂級會議如 ICLR、ACL、AAAI 等發表了多篇論文,并在快手快意大模型組、阿里通義千問組等大模型團隊進行實習。其代表性工作包括 ARPO、AUTOIF、Tool-Star、RFT、Search-o1、WebThinker、Qwen2 和 Qwen2.5 等。

      • 個人主頁:dongguanting.github.io

      本文的通信作者為中國人民大學的竇志成教授與快手科技的周國睿。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      410次開房記錄流出:央企“女老虎”陶荔芳,背后還有多少同伙

      410次開房記錄流出:央企“女老虎”陶荔芳,背后還有多少同伙

      深度報
      2025-12-14 22:36:54
      臺灣媒體:中國是世上唯一、遭遇殖民就死戰不退的國家!全球少有

      臺灣媒體:中國是世上唯一、遭遇殖民就死戰不退的國家!全球少有

      來科點譜
      2026-02-20 07:16:10
      郎平也沒想到,當年留給前夫在美國長大的女兒,如今成了她的驕傲

      郎平也沒想到,當年留給前夫在美國長大的女兒,如今成了她的驕傲

      冷紫葉
      2026-01-29 19:10:32
      “所以,輸了嗎?”美媒披露“特朗普得知關稅政策被判違法的那一刻”

      “所以,輸了嗎?”美媒披露“特朗普得知關稅政策被判違法的那一刻”

      環球網資訊
      2026-02-21 13:32:39
      農村倫理故事:死于兒媳手里的公公

      農村倫理故事:死于兒媳手里的公公

      長安一孤客
      2025-12-26 17:21:00
      不可錯過!2月21日下午16:00比賽!中央5套CCTV5、CCTV5+直播表

      不可錯過!2月21日下午16:00比賽!中央5套CCTV5、CCTV5+直播表

      皮皮觀天下
      2026-02-21 15:16:31
      三年前,55歲湖南老漢發現工友老婆,竟是失蹤14年的妻子

      三年前,55歲湖南老漢發現工友老婆,竟是失蹤14年的妻子

      法老不說教
      2026-02-19 16:59:24
      北京發布沙塵藍色預警信號

      北京發布沙塵藍色預警信號

      新華社
      2026-02-21 09:28:49
      張家界“愛國賊事件”:傻X式愛國,是個巨大禍害

      張家界“愛國賊事件”:傻X式愛國,是個巨大禍害

      麥大人
      2025-10-13 15:29:56
      河南小伙在非洲16年,當地一夫多妻制,男人只用玩,女人掙錢養家

      河南小伙在非洲16年,當地一夫多妻制,男人只用玩,女人掙錢養家

      大魚簡科
      2026-02-07 16:50:52
      女孩當小姐,一晚要提供4到5次上門服務,2015年被親人點到不赴約

      女孩當小姐,一晚要提供4到5次上門服務,2015年被親人點到不赴約

      漢史趣聞
      2025-11-08 09:27:32
      俄媒稱K寶若參賽米蘭冬奧肯定輕松奪冠 無四周跳女子花滑倒退10年

      俄媒稱K寶若參賽米蘭冬奧肯定輕松奪冠 無四周跳女子花滑倒退10年

      勁爆體壇
      2026-02-21 06:54:19
      10到15天!特朗普對伊朗最新通牒,中東火藥桶是否要炸?

      10到15天!特朗普對伊朗最新通牒,中東火藥桶是否要炸?

      上觀新聞
      2026-02-20 17:23:14
      馬云曾3次請她“出山”,入職阿里后身家百億,年過40仍孑然一身

      馬云曾3次請她“出山”,入職阿里后身家百億,年過40仍孑然一身

      歷史甄有趣
      2026-01-02 06:35:07
      別再花冤枉錢!iPhone自帶多款高效應用,全部免費更實用

      別再花冤枉錢!iPhone自帶多款高效應用,全部免費更實用

      小柱解說游戲
      2026-02-20 09:16:19
      太囂張!那藝娜被湖北官方列為劣跡藝人,團隊硬剛:是地區黑公關

      太囂張!那藝娜被湖北官方列為劣跡藝人,團隊硬剛:是地區黑公關

      離離言幾許
      2026-02-21 14:46:36
      對越反擊戰,世界上只有兩個國家支持中國,是敵是友一目了然!

      對越反擊戰,世界上只有兩個國家支持中國,是敵是友一目了然!

      嘆為觀止易
      2026-02-17 13:08:02
      1998年數萬華人遭屠殺,中國為何沒出兵?26年后答案讓人沉默

      1998年數萬華人遭屠殺,中國為何沒出兵?26年后答案讓人沉默

      哄動一時啊
      2026-02-17 22:21:25
      新加坡大滿貫正賽首日賽程:22日上午6場下午2場

      新加坡大滿貫正賽首日賽程:22日上午6場下午2場

      小僫搞笑解說
      2026-02-21 10:25:16
      原來花小錢就能過得舒服很多,網友:不要心疼電費,該省省該花花

      原來花小錢就能過得舒服很多,網友:不要心疼電費,該省省該花花

      另子維愛讀史
      2026-01-23 20:02:10
      2026-02-21 17:23:00
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      12325文章數 142569關注度
      往期回顧 全部

      科技要聞

      智譜上市1月漲5倍,市值超越京東、快手

      頭條要聞

      在貝加爾湖遇難的3名中國游客身份已確認:系一家人

      頭條要聞

      在貝加爾湖遇難的3名中國游客身份已確認:系一家人

      體育要聞

      冬奧第一"海王"?一人和13國選手都有關系

      娛樂要聞

      鏢人反超驚蟄無聲拿下單日票房第二!

      財經要聞

      一覺醒來,世界大變,特朗普改新打法了

      汽車要聞

      比亞迪的“顏值擔當”來了 方程豹首款轎車路跑信息曝光

      態度原創

      親子
      本地
      數碼
      手機
      公開課

      親子要聞

      放寒假別老催著孩子寫作業了,跳繩機會來了!

      本地新聞

      春花齊放2026:《駿馬奔騰迎新歲》

      數碼要聞

      NVIDIA新卡皇RTX 5090 Ti再曝光:功耗直飆超700W!性能提升10%

      手機要聞

      vivo產品線結構分析,走量最大的是這個檔次

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版