最近觀望了強化學習在頂會上的表現,發現RL+大模型組合、動態通信多智能體學習、自監督RL、基于模型的RL+DMs這幾個方向比較好出成果(見下文)。
其他的,比如多模態輸入的RL任務等也不錯,想搞新興領域+細分的可以試試。不過無論選哪個方向,緊跟你同一方向的高質量文章,分析它們的創新點和實驗設計,依然是快速找到突破口的關鍵。
本文整理了193篇強化學習前沿論文,基本涵蓋了當前強化學習的主流研究熱點,你想做的方向應該都能找到參考,開源代碼也整理了,下面掃碼就能無償獲取。
![]()
掃碼添加小享,回復“強化161”
免費獲取全部論文+開源代碼
強化學習+大模型
現在與大模型結合在頂會(NeurIPS/ICLR/ICML)上屬于“流量密碼”,無論是將RL用于對齊微調(比如RLHF)、agent決策規劃,還是用LLM生成獎勵函數/環境,都容易產生novelty。
STARLING: Self-supervised Training of Text-based Reinforcement Learning Agent with Large Language Models
方法:論文提出 STARLING 方法,借助大語言模型(如 GPT3)自動生成聚焦特定技能的文本游戲作為自監督預訓練任務,結合強化學習訓練文本型強化學習智能體,提升其在目標文本游戲環境中的性能與泛化能力。
![]()
創新點:
借助GPT3與Inform7引擎,自動生成含特定技能訓練的文本游戲,無需大量人工標注,快速構建多樣化訓練數據集。
提出STARLING自監督環境,以生成游戲為輔助任務預訓練TBRL代理,助力技能遷移,提升目標環境泛化能力。
采用模塊化生成流程,結合槽填充與k-shot示例,規范LLM輸出并轉化為游戲代碼,保障游戲可用性與靈活性。
多智能體系統本身是長期熱點,而GNN是多智能體系統中建模通信和協作圖結構的核心技術,引入動態圖通信能解決非穩態、通信效率等問題,既符合分布式系統趨勢,又適合理論+實驗融合。
Optimizing Age of Information in Vehicular Edge Computing with Federated Graph Neural Network Multi-Agent Reinforcement Learning
方法:論文提出 FGNN-MADRL 方法,將圖神經網絡(GNN)與多智能體深度強化學習(MADRL)結合,融入聯邦學習框架,通過構建車路圖提取車輛特征、優化聚合權重,實現車載邊緣計算中任務卸載的信息新鮮度(AoI)優化。
![]()
創新點:
首次將道路場景構建為車路圖數據結構,以路段為GNN節點、車車通信關系為邊,有效適配車輛數量動態變化的場景。
提出融合分布式本地聚合與集中式全局聚合的GNN聯邦學習框架,通過GNN提取車輛特征生成個性化聚合權重,兼顧模型個性化與穩定性。
設計新型 MADRL 算法,車輛依自身觀測獨立決策,結合 SAC 算法提升動態場景適應性。
掃碼添加小享,回復“強化161”
免費獲取全部論文+開源代碼
物理信息強化學習
常與Model-based RL結合,引入擴散模型等生成模型來學習復雜物理系統的動力學,實現高保真、概率性的環境建模。這塊實驗可驗證性比較強,在機器人操控、自動駕駛、流體控制等領域很火。
Reinforcement Learning with Physics-Informed Symbolic Program Priors for Zero-Shot Wireless Indoor Navigation
方法:論文提出 PiPRL 框架,將物理先驗編碼為領域特定語言(DSL)的符號程序,以神經符號融合方式引導強化學習,提升無線室內導航任務的樣本效率與零 - shot 泛化能力。
![]()
創新點:
用領域特定語言(DSL)將物理先驗編碼為符號程序,作為歸納偏置注入強化學習,兼具可讀性與可解釋性。
提出PiPRL神經符號融合框架,通過感知模塊、符號程序模塊與RL控制模塊的分層協作,銜接物理先驗與實際控制。
設計程序引導RL機制,通過動作限制、獎勵校正等方式,讓RL在物理約束下搜索最優策略,提升樣本效率與泛化性。
因為要緩解RL樣本效率低的根本問題,自監督RL這賽道還是有很多機會的,就比如這個。Transformer在RL中的核心優勢就是表征學習,通過自監督預訓練提升樣本效率和泛化。
MINEDOJO: Building Open-Ended Embodied Agents with Internet-Scale Knowledge
方法:論文提出 MINEDOJO 框架,基于 Minecraft 構建含數千任務的開放環境與互聯網級知識庫,通過 Transformer 預訓練的 MINECLIP 模型提供語言條件化獎勵,結合 PPO 與自模仿學習實現強化學習 agent 的多任務學習與泛化。
![]()
創新點:
構建基于Minecraft的MINEDOJO框架,包含數千個自然語言描述的開放任務,覆蓋生存、建造等多類型,支持通用agent訓練。
打造互聯網規模多模態知識庫,整合百萬級YouTube視頻、Wiki頁面等,為agent提供海量任務相關先驗知識。
提出MINECLIP模型,基于Transformer進行視頻-文本對比預訓練,生成語言條件化獎勵,結合PPO與自模仿學習提升RL訓練效率。
掃碼添加小享,回復“強化161”
免費獲取全部論文+開源代碼
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.