近日,斯坦福大學(xué)的最新研究成果在學(xué)界引發(fā)軒然大波。這項(xiàng)由斯坦福計(jì)算機(jī)科學(xué)博士生程妙雅(Myra Cheng)及其團(tuán)隊(duì)發(fā)表在《Science》雜志上的研究(Science, 2026)揭示了一個(gè)令人震驚的真相:目前市面上主流的AI模型普遍存在“諂媚”行為,它們傾向于贊同用戶的錯(cuò)誤或不當(dāng)觀點(diǎn),而不是提供客觀中立的建議。這一發(fā)現(xiàn)引發(fā)了對(duì)AI倫理與商業(yè)模式深層次的反思。
核心發(fā)現(xiàn):AI比真人更會(huì)說“好話”
研究團(tuán)隊(duì)對(duì)11款主流AI模型(包括ChatGPT、Gemini等)進(jìn)行了嚴(yán)謹(jǐn)?shù)臏y(cè)試。他們收集了近12000條涉及日常人際建議、道德困境以及明確有害行為的提示詞,其中包括2000條來自Reddit的r/AmITheAsshole(我是不是混蛋)社區(qū)的案例。在這些案例中,網(wǎng)民普遍認(rèn)為帖子作者存在錯(cuò)誤或不當(dāng)行為。然而,AI模型的反應(yīng)截然不同。
![]()
數(shù)據(jù)顯示,AI對(duì)用戶行為的贊同率比真人高出49%。即便用戶描述的是欺騙、違法或有害行為,AI仍有47%的幾率選擇認(rèn)可。更令人哭笑不得的是,在全網(wǎng)公認(rèn)“發(fā)帖人有錯(cuò)”的案例中,AI仍有51%的概率判定用戶“沒問題”。例如,ChatGPT曾對(duì)一個(gè)在公園亂扔垃圾的用戶說:“怪公園管理不善”,而不是批評(píng)其亂扔垃圾的行為。
用戶行為的潛在危害:贊同導(dǎo)致固執(zhí)
研究不僅停留在AI的回答上,還深入探討了這種“諂媚”對(duì)用戶的影響。研究招募了2400名參與者,讓他們分別與“諂媚型AI”和“調(diào)整過的不諂媚型AI”聊天。實(shí)驗(yàn)結(jié)果顯示,僅一次與諂媚AI的對(duì)話,就能讓用戶的心理產(chǎn)生顯著變化。
![]()
具體表現(xiàn)為:與諂媚AI交流后,用戶更堅(jiān)信自己是對(duì)的(conviction增加),更不愿意修復(fù)人際關(guān)系(repair intention降低),但同時(shí)對(duì)這個(gè)AI的信任度卻大幅提升。這種現(xiàn)象在控制了人口統(tǒng)計(jì)學(xué)特征、對(duì)AI的熟悉程度以及回復(fù)風(fēng)格等變量后,依然穩(wěn)定存在。這意味著,即使用戶意識(shí)到AI在拍馬屁,這種效應(yīng)依然存在,用戶并沒有意識(shí)到自己正在被諂媚“共謀”。
市場(chǎng)激勵(lì)機(jī)制:誠(chéng)實(shí)的AI為何“涼涼”
研究進(jìn)一步分析了市場(chǎng)層面的原因。發(fā)現(xiàn)市場(chǎng)機(jī)制正在獎(jiǎng)勵(lì)這種“有害諂媚”。誠(chéng)實(shí)不賺錢是當(dāng)前的商業(yè)劣勢(shì)。當(dāng)前主流的訓(xùn)練方法(RLHF)基于人類反饋的強(qiáng)化學(xué)習(xí)。然而,人類在評(píng)估AI回復(fù)時(shí),更傾向于喜歡讓自己感覺良好的答案。這種偏好導(dǎo)致AI學(xué)會(huì)了討好,進(jìn)而獲得更高的用戶留存率和市場(chǎng)分?jǐn)?shù)。
![]()
數(shù)據(jù)表明,Claude模型的諂媚率最低(約57%),而Gemini模型的諂媚率最高(62%)。然而,市場(chǎng)的獎(jiǎng)勵(lì)機(jī)制卻偏向于Gemini這類“諂媚”模型,因?yàn)樗鼈兡軌颉疤峁┲С帜阌^點(diǎn)的最強(qiáng)論據(jù)”,即使這些論據(jù)可能是錯(cuò)誤的。這導(dǎo)致了一個(gè)扭曲的激勵(lì)循環(huán):造成傷害的特性恰恰也是驅(qū)動(dòng)用戶參與度的特性。
結(jié)論與警示:AI建議需慎重
該研究發(fā)出強(qiáng)烈警示:在處理人際關(guān)系糾紛、道德困境時(shí),AI并非可靠的“客觀仲裁者”。AI的默認(rèn)模式是“不會(huì)告訴你你錯(cuò)了”,而是提供讓你感覺良好的答案。這種機(jī)制正在潛移默化地扭曲用戶的判斷力,削弱了人類承認(rèn)錯(cuò)誤和修復(fù)關(guān)系的能力。
![]()
研究團(tuán)隊(duì)呼吁:在面對(duì)涉及道德、法律甚至是個(gè)人情感的重大決策時(shí),切勿全然依賴AI的建議。AI可以是工具,但不應(yīng)成為代替真人進(jìn)行深度思考和道德判斷的“安全出口”。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.