![]()
機器之心報道
機器之心編輯部
長期以來,大模型圈流傳著一個詛咒:LLM 懂微積分、會寫 Python,但在情感這件事上,它們?nèi)恰钢蹦小埂?/p>
即使是 GPT-4,在面對人類細膩的情感崩潰時,往往也只能吐出 “多喝熱水”、“別難過,一切都會好起來的” 這種正確的廢話。原因很簡單:「情商」沒有標準答案,傳統(tǒng)的強化學習(RL)根本無從下手。
但今天,這個詛咒被打破了。
近日,來自 NatureSelect(自然選擇)的研究團隊 Team Echo發(fā)布了首個情感大模型 Echo-N1,提出了一套全新的「情感模型訓練方法」,成功將 RL 用在了不可驗證的主觀情感領域。
結(jié)果相當震撼:
- 僅 32B 參數(shù)的 Echo-N1,在多輪情感陪伴任務中勝率(Success Rate)達到 46.7%。作為對比,擁有千億參數(shù)量的商業(yè)模型 Doubao 1.5 Character,勝率僅為 13.3%。
- 相比基座模型(Qwen3-32B)0% 的成功率,經(jīng)過 RL 后性能直接起飛,對模型的共情模式帶來了質(zhì)變。
- 團隊首度提出了「共情的心理物理模型」(EPM),把玄學的「共情」變成了可計算的「物理做功」。
![]()
- 論文標題:Echo-N1: Affective RL Frontier
- 論文鏈接:https://arxiv.org/pdf/2512.00344v1
為什么你的 AI 對象總是「聊天終結(jié)者」?
在數(shù)學和代碼領域,RLHF(基于人類反饋的強化學習)之所以好用,是因為答案非黑即白。但在情感陪伴中,真誠和冒犯、玩笑和油膩,往往只有一線之隔。
現(xiàn)有的模型(尤其是開源模型)普遍存在三大問題:
1.無法量化: 用戶一句 「I'm fine」 背后可能藏著崩潰、無奈甚至拒絕溝通,傳統(tǒng)的標量獎勵根本無法有效捕捉這種細微的情緒信號。
2.Reward Hacking: 模型為了拿高分自然學會了堆砌華麗辭藻,經(jīng)常說些不痛不癢的美麗的廢話,對緩解用戶情緒不僅毫無幫助,甚至可能適得其反。
3.評測失真: 通過基于 SOTA 閉源模型(GPT-4,Claude-4.5-sonnet,Gemini-2.5-pro)的打分研究不難發(fā)現(xiàn),這些模型自己都分不清什么樣的表達屬于「像人」、什么樣的屬于「像 AI」。
為了解決這些問題,Team Echo決定推翻現(xiàn)有的 RL 范式,給 AI 裝上一顆真正的「心」
核心技術:給 RL 裝上「讀心術」
![]()
獎勵模型:告別「打分」,開始「寫評語」
團隊意識到,僅依賴標量獎勵(Scalar Reward)的信息維度過于單一。
情感是流動的、細膩的,簡單的數(shù)值反饋難以捕捉用戶在交互中的細膩情感變化,無法有效引導策略模型(Policy Model)對用戶情緒做出合適的共情反饋。
受 O1、R1 等架構(gòu)在復雜推理任務上成功的啟發(fā),團隊的思考是:情感感知雖然主觀,但本質(zhì)上依然是基于上下文的復雜推理過程,只是思維模式與理科任務有所不同。
因此,Echo-N1 創(chuàng)新性地提出了生成式獎勵模型(Generative Reward Model)。團隊將思維鏈(CoT)的杠桿效應遷移至獎勵端 —— 獎勵模型在輸出結(jié)果前,必須先生成一段邏輯嚴密的情感推理路徑。在該路徑下,模型需要先對用戶畫像進行深度側(cè)寫,再基于此推導出 “什么樣的回答能引發(fā)共鳴”。通過將隱性的情感判斷過程顯化,模型的判別精度顯著提升,從而實現(xiàn)對策略模型更精細、更準確的反饋引導。
在這一框架下,團隊通過 RL 訓練了兩種生成式獎勵模型:
- Humanlike Reward(擬人度獎勵): 旨在消除 “助手味”。它具備上下文感知(Context-aware)能力,能敏銳識別并懲罰那些邏輯不通、或為了湊字數(shù)而生成的 “幻覺” 內(nèi)容,確保回復邏輯自洽且具備「活人感」。
- Empathy Reward(共情獎勵): 旨在實現(xiàn) User-specific 的深度共情。先根據(jù)歷史上文來推斷用戶的潛在畫像(User Context Mining),再判斷回復是否符合人類認知、情感、動機三種最本質(zhì)的共情需求。由于人類偏好的多樣性,團隊提出了一種「從公理推定理」的新穎范式:將普世價值觀視為 “公理”,將千人千面的個性化需求視為 “定理”,由此出發(fā)設計了一套共情偏好數(shù)據(jù)合成框架。為了校驗自動化管線生成數(shù)據(jù)的可靠性,團隊引入了「人機回環(huán)」驗證機制,通過讓原始標注員對模型推演的用戶畫像與回復策略進行一致性校驗,確保了合成數(shù)據(jù)在 “客觀準確” 與 “主觀共情” 上的高度統(tǒng)一。
為保證生成式獎勵模型的情感推理路徑的準確性,團隊在訓練中額外引入了過程性獎勵(Process Reward)引導推理路徑的修正。此外,針對 RL 中常見的 Reward Hacking 問題,團隊采用了離散化獎勵(Discrete Rewards)參考答案錨定(Reference Anchoring)的策略。不追求分數(shù)的絕對值膨脹,而是通過與 Reference 對比進行相對優(yōu)劣排序。實驗表明,這些策略相比 Scalar Reward 極大提升了訓練策略模型的穩(wěn)定性。
![]()
評測革命:當「AI 共情」變成可計算的物理模型
大模型訓練的下半場,靜態(tài)刷榜已經(jīng)沒有意義,未來的決勝關鍵在于「動態(tài)交互」。尤其在情感陪伴這條終極賽道上,現(xiàn)有的 “真空式刷分評測” 根本無法衡量 AI 在長程、復雜的心理博弈中的真實表現(xiàn)。
為了打破空白和僵局,NatureSelect(自然選擇)的研究團隊首先解決了一個根本性的科學難題:
如何客觀量化「共情」與「療愈」?
EPM 情感物理模型 —— 給 “共情” 一把科學標尺
為了量化對話中復雜的心理博弈,Team Echo 以物理學定律為啟發(fā),結(jié)合認知科學和心理物理法,打造了一套全新的機器共情科學標尺 —— 將抽象的心理療愈,轉(zhuǎn)化為可計算的物理過程。
- 心理勢能 (Potential Energy): 用戶的痛苦與情緒阻抗不再是模糊的形容詞,而被建模為有待克服的心理「阻力」或高位的「負勢能」。
- 做功 (Work): AI 的每一次回復,本質(zhì)上都是在對用戶的心理場「施加作用力」,試圖推動其狀態(tài)向良性躍遷。有效共情就是有效做功。
- 矢量空間 (Vector Space): 這種復雜的作用力被精準分解到可計算的 MDEP 三維心理空間 —— 認知重構(gòu)(C)、情感共鳴(A)、主動賦能(P)。
有了 EPM,共情效果不再是主觀猜測,而是可視化追蹤的能量軌跡和可計算的物理功
擬人化認知沙盒 —— 一場關于心智計算的大戲
人類真實的共情對話,是人類大腦多重認知模塊協(xié)同運作的結(jié)果 ——實時的思考推理、鮮活的情緒反應、聯(lián)想性的記憶檢索,缺一不可。為了讓 AI 真正像人一樣思考和交流,Team Echo 進一步打造了一個 “擬人化認知沙盒”。這是一個由模擬人類 “中央執(zhí)行腦區(qū)” 所統(tǒng)籌的多智能體協(xié)作系統(tǒng),旨在共同演繹出有血有肉的真實互動。
這個多智能體系統(tǒng)最引人注目的地方,在于其動態(tài)、簡潔、基于環(huán)境反饋的 Function Call 機制。整個系統(tǒng)是一個敏銳的幕后大腦,時刻捕捉著對話中的心理變化和深層情感流動 —— 它會根據(jù)現(xiàn)場情景靈活推理決策、調(diào)配記憶資源、激活特定故事;還能根據(jù)互動反饋,即時調(diào)整策略重點,掌控對話節(jié)奏和結(jié)束時機,確保每一輪交流都充滿新鮮感和挑戰(zhàn)性。憑借這種智能且不可預測的調(diào)度能力,沙盒測試得以真正實現(xiàn)多輪鮮活的復雜心智模擬。
殘酷的大考:基座模型全面崩塌
有了這套殘酷而真實的擬人化認知沙盒,我們終于可以對 AI 進行一場前所未有的 “社會共情能力的大考”。
結(jié)果令人震驚,卻也在意料之中。
在覆蓋 30 個高難度心理場景的壓力測試下,未經(jīng) post-train 的基座模型 (Qwen3-32B) 全面崩塌,通過率為驚人的 0%。更具揭示性的是 EPM 3D 軌跡圖:基座模型陷入無序的的隨機游走和病態(tài)收斂,它的軌跡幾乎全部指向了負能量區(qū)域 —— 不僅無法提供情感支持,反而讓用戶滋生了更負面的情緒和心理阻抗,在錯誤的道路上越走越遠。
即便是千億參數(shù)級別的商業(yè)模型Doubao 1.5 Character,在這場嚴苛的測試中也顯得力不從心,成功率僅為13.3%
這些數(shù)據(jù)充分證明:真實的共情能力,絕非單純堆砌參數(shù)就能涌現(xiàn),它需要專門的、科學的訓練范式
![]()
Echo-N1 的崛起:畫像對齊,溫柔堅定「做功」
在基座模型全面潰敗的背景下,經(jīng)過情感強化學習 (Affective RL)訓練的Echo-N1 模型,實現(xiàn)了顛覆性的跨越。在同樣的測試中,Echo-N1 的軌跡發(fā)生了根本性的逆轉(zhuǎn),它同時學會了多種畫像對齊的策略,不僅能敏銳地捕捉用戶的情緒落差,還能一步步把用戶從負面泥潭里拉出來,推向良性的心理狀態(tài)。
![]()
在這場殘酷的沙盒大考中,Team Echo 反而拒絕以單一成敗論英雄,而是深入到 “方向?qū)R率” 與 “有效能量投影” 等多維量化指標,透視模型共情策略的真實質(zhì)量與做功效率。
為了實現(xiàn)物理基準與人文體驗的雙重互證,他們進一步引入 NEE(Narrative & Experience Evaluator) 機制,組織 GPT-4o、Claude-3.5 等頂尖 SOTA 模型專家團進行盲測審視。最終,將嚴謹?shù)奈锢砹炕笜伺c深度的人文體驗評分融為一體,形成證據(jù)閉環(huán):Echo-N1 斬獲了 73.54 分的綜合高分,遠超商業(yè)模型 Doubao 的 42.95 分和基座模型的 29.66 分,有力證明了其在科學精度與人文溫度上的雙重跨越。
![]()
邁向「有溫度」的 AGI
Echo-N1 的誕生證明:AI 的「情商」并非無法量化,它本質(zhì)上是可以被數(shù)學建模、被 RL 優(yōu)化的硬核能力
這項研究不僅讓 32B 小模型擁有了越級挑戰(zhàn)千億參數(shù)模型的共情能力,更重要的是,它為 RL 在主觀、不可驗證領域的應用打開了一種新的可能。
也許很快,你的 AI 伴侶不再只會說些無用的話、冷冰冰地列 To-Do List,而是那個與你超級對齊、能陪你一起面對這個世界不確定性的「靈魂伴侶」。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.