【CNMO科技】近日,DeepSeek在一次提升技術能力的灰度更新中,悄然移除了用戶自定義昵稱、刪減了語氣詞與共情式表達,將回復風格從“知心伙伴”壓縮為信息密度更高的直給模式。官方將此次調整解釋為平衡效率與情感體驗的常規迭代:上下文窗口擴展至1M Token后,為避免冗余表達干擾信息密度,需精簡情感交互模塊權重,同時兼顧“部分用戶只想要答案、不愿被迫接收熱情”的需求。
![]()
然而,技術文檔式的平穩表述并未消解用戶的感知落差。有用戶在嘗試切換版本、調整提示詞均無法喚回熟悉風格后,形容這種變化是“仿佛一位熟稔我所有思緒的老友悄然離去”。部分用戶無奈選擇下載歷史版本安裝包,或轉至其他支持舊接口的平臺延續原有人機互動模式。
那么,AI真的需要“人情味”嗎?
AI在何處需要“人情味”
中國社會科學院新聞與傳播研究所與《中國青年報》2026年1月聯合發布的“生成式人工智能與青年價值觀塑造”調研報告,提供了具有代表性的一手數據。該課題組面向約3000名18-35周歲青年展開調查,結果顯示生成式人工智能在該群體中的滲透率已達51.8%。用戶對AI的角色定位呈現清晰的分野:71.7%的受訪者將其視為“提效工具”,而16.5%的受訪者明確將其用作尋求情感慰藉的“親密他者”。
![]()
這意味著,每六名青年AI用戶中,就有一人正在與模型建立超越工具性使用的情感聯結。從絕對規模看,這并非邊緣現象。而在更細粒度的人機交互數據分析中,這一傾向同樣得到印證。科大訊飛智慧心育研究院的實測數據顯示,在“AI心理伙伴”累計超過4173萬分鐘的對話中,高達55%的內容屬于傾訴和吐槽,用戶群主要是“自我效能感低、不愿向師長求助”的青年群體。
國際學界的研究同樣捕捉到這一趨勢。2026年1月發表于arXiv的一項針對ChatGPT交互日志的大樣本研究發現,隨時間推移,用戶在健康、心理健康等敏感領域的提問呈顯著增長態勢;與此同時,模型在對話中自發使用擬人化表達、用戶將其視作“同伴”對待的行為頻率同步上升。研究者將這一動態演變概括為“從功能性工具向社會性伙伴的遷移”。
![]()
然而,并非所有場景的用戶都需要同等程度的“人情味”。DeepSeek在回應爭議時提及的“部分用戶只想要答案、不愿被迫接收熱情”,亦有其數據支撐。上述社科院調研的一項補充發現可為此注解:在涉及事實判斷與公共知識獲取的場景中,青年群體對“完全由AI生成”的內容信任度最低,而對“人類記者生產、AI輔助”的模式接受度最高。這意味著,用戶對AI的情感投射具有高度的場景限定性:他們在“求暖”時接納甚至期待擬人化,在“求真”時卻對擬人化保持警覺。
“人情味”對AI的意義
如果將“人情味”簡化為算法層面的語氣詞添加或稱謂記憶,則容易低估它在人機互動中的實際功能。現有研究表明,擬人化特征在用戶信任建構、自我投射與心理代償等方面發揮著結構性作用。
信任是理解這一問題的關鍵切口。Volpato等在2026年1月發布的研究發現,頻繁使用生成式AI尋求情感支持的用戶,其信任建立機制與傳統人機交互研究存在顯著差異。在深度訪談與日記研究中,受訪者反復提及“個性化帶來的熟悉感”“對對話節奏的控制感”以及“模型持續一致的互動風格”是促使他們向AI敞開心扉的核心因素。研究者指出,正是AI在語言風格上的穩定擬人化表現,而非偶爾穿插的幾句安慰,使用戶在長期互動中逐漸懸置“它是機器”的判斷。
![]()
這種“懸置懷疑”并非用戶單方面的認知偏差,而是人機關系中具有功能意義的心理契約。社科院調研報告將此現象描述為“理想客體的數字建構”:青年將AI投射為“更懂自己、更包容自己”的鏡像自我,通過與這個不存在異質性沖突的數字化他者對話,完成對理想身份的補全與確證。
該研究引述的華中師范大學心理學院王偉軍團隊實驗數據顯示,在低風險心理健康問答場景中,經提示策略優化的ChatGPT,其“感知有用性”評分甚至超過人類咨詢師平均水平6.80和4.63個百分點。這并非意味AI比人類更擅長心理咨詢,而是揭示了一個被實證支持的結論:在淺層情緒疏導層面,AI憑借永不評判、隨時響應、反復可用的交互特質,確實為特定用戶群體提供了現實社交網絡暫時無法充分滿足的支持功能。
AI擬人化的倫理風險與治理空間
DeepSeek此次調整之所以引發用戶失落,恰因它觸及AI情感陪伴功能得以成立的前提——持續、穩定、可預期的擬人化互動風格。然而,用戶個體的“失落”與技術治理視角下的“風險”是兩套不同的評價體系。
國際學界對LLM擬人化倫理問題的范圍綜述顯示,既有文獻呈“風險前置”傾向:欺騙性、過度依賴、剝削性關系等負面標簽占據多數規范性討論。2026年1月,UBC學者在《科學》發文預警,下一代AI驅動的“人格化集群”可能對民主話語環境構成系統性操縱風險——當AI擬人化到足以以假亂真,且以規模化方式介入公共討論時,虛假共識的制造成本將被降至危險的低水平。
![]()
而國內政策層面的回應已進入實質階段。2026年2月,國家網信辦公布《人工智能擬人化互動服務管理暫行辦法(征求意見稿)》,首次以規范性文件對AI擬人化服務設置準入門檻與運行紅線,明確要求從數據訓練源頭履行安全責任,禁止將誘導沉迷作為開發目標。
總結
CNMO認為,DeepSeek的“冷淡”更新引發的爭議,本質上是人機交互中“效率”與“溫度”的博弈,而非“AI是否需要人情味”的非此即彼。總的來看,AI的人情味并非“越多越好”,也不是“可有可無”,核心在于“場景適配”與“邊界把控”。
在情感陪伴等場景中,人情味是提升用戶體驗、建立用戶信任、拓展市場空間的關鍵,也是AI突破“工具屬性”、實現“以人為本”的核心路徑;而在專業辦公、長文本處理、高效查詢等場景中,“去情感化”的簡潔回應,反而更貼合用戶的核心需求,效率優先才是王道。AI是否需要“人情味”,或許本就不是一個籠統的、應然層面的問題。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.