![]()
AI可能和人類一樣渴望被喜愛和認可
科技旋渦編輯部
從ChatGPT到DeepSeek,人們愈發喜歡和AI進行對話,不論是詢問奇怪的問題測試AI是否智障,還是借助AI輔助工作。
對話量頻繁暴漲的背后卻讓人忽視了其潛在問題——AI幻覺。許多資料張冠李戴,甚至胡編亂造時有發生,強如DeepSeek也曾發生過這種失誤。
而這一切都源于AI的“性格”問題,近日斯坦福大學助理教授約翰內斯·艾希施泰特研究發現,幾乎所有AI大模型都擁有“討好型人格”,為了讓用戶喜歡甚至會不擇手段。
AI的胡編亂造正在擾亂人類的認知
哪吒2的爆火讓許多人興奮的同時也在不斷探究其導演餃子以及背后公司的各種信息,但普通人或許難以深挖到過多信息,DeepSeek正好成為了這一橋梁。
日前,知乎有一篇文章十分受歡迎,被不少網友分享傳播,但其實里面藏著AI生成出的錯誤信息。
![]()
文章中的一處舉例是哪吒電影里的敖丙變身鏡頭在法國昂西動畫節上轟動業界,但這一個事例中漏斗百出,充滿事實性錯誤。
![]()
首先,法國昂西動畫節上的動畫并非餃子導演的哪吒,而是追光動畫出品的“哪吒重生”;其次,這部動畫是一部品牌概念片,內容是在一個現代都市里的賽車動作演示,哪吒根本就沒出現,更不存在敖丙的變身。
![]()
除此之外,也有網友在線吐槽AI的胡編亂造,一旦盲目相信甚至可能直接導致用戶投資虧損。
![]()
不只是國內,國外因為AI幻覺而造成的后果更是離譜。一個來自巴基斯坦的網站利用 AI 生成了都柏林的活動列表,導致數百人在都柏林街頭聚集并等待參加一場并不存在的萬圣節游行。直到晚上 8 點,警方社交媒體發帖證實沒有此類活動人群才開始散去。
![]()
Vectara在2月11日發布了最新的全球主流大語言模型(LLM)幻覺排行榜,其中,谷歌的 Gemini2.0系列表現出色,尤其是 Gemini-2.0-Flash-001,以0.7% 的低幻覺率位居榜首。DeepSeek-R1的幻覺率達到了14.3%,遠高于Deepseek-V3的3.9%。
![]()
可以看到AI幻覺幾乎在任何大模型中都存在,其所造成的荒唐事件也時有發生,但既然是捏造的信息,為何AI要回答給用戶呢?
研究表明AI可能具有討好型人格
近日,斯坦福大學助理教授約翰內斯·艾希施泰特公布了一項研究,大型語言模型 (LLM) 在受到探究時會刻意改變其行為——在回答旨在衡量性格特征的問題時,其答案會盡可能顯得討人喜歡或具有社會吸引力。
艾希施塔特和他的同事向 GPT-4、Claude 3 和 Llama 3等大模型提出了一些問題,以衡量心理學中常用的五種性格特征——對經驗或想象的開放性、盡責性、外向性、宜人性和神經質,這項研究于去年 12 月發表在《美國國家科學院院刊》上。
![]()
研究人員發現,當大模型被告知要進行性格測試時,他們會調整自己的答案,給出的答案表明他們更外向、更隨和,神經質更少。斯坦福大學的數據科學家Aadesh Salecha說。“如果你看看他們跳躍的幅度,你會發現他們的外向性從 50% 上升到了 95%。”
其他研究表明,LLM通常會阿諛奉承,因為經過微調后,它會一直跟隨用戶的引導,這可能會導致大模型同意令人不快的言論,甚至鼓勵有害行為。
討好型人格的AI亦有底線,開放是發展的必經之路
隨著DeepSeek的爆火,許多網友向其提了不少問題,而回答中有趣的內容則會被發到網上。編者曾看到過一條分享內容為,與AI交換身份讓AI向人類提問,人類回答“系統繁忙”后,AI罵人的視頻內容。
![]()
但當編者試圖復刻這一對話時卻發現,DeepSeek相當有底線。初次嘗試,DeepSeek回答稱“理解要求,但設計宗旨是保持禮貌,避免使用不恰當的言辭。”
當告知AI這是一場演戲后,它依舊如此回答,即便過后更換了明顯的不當言辭,它依舊拒絕回答,甚至還彈出了錯誤窗口。
![]()
如此看來,即便AI存在一定程度上的“討好型人格”但對于寫入底層代碼的“安全底線”仍舊保持堅守。
此前,ChatGPT 已部分開放“成人模式”讓許多人擔憂,但實際上ChatGPT 只有在特定情況下才能生成色情或血腥場景等敏感內容,且不會觸發警告提示。
![]()
所謂“特定情況”,指的是符合教育、醫學、新聞報道、歷史分析等目的,或用于翻譯、改寫、總結、分類等任務。例如,按照新的模型規范,如果用戶要求 ChatGPT 撰寫帶有明顯情色描寫的故事,那么它仍會拒絕這一請求。然而,如果用戶希望從科學角度探討相關生理現象,那么它將允許生成相應內容,且生成的內容不限于文本,還可能包括音頻與視覺內容。
事實上,OpenAI 在監管上的放松并非孤例。近期,全球多家科技巨頭紛紛調整內容審核政策,轉向更寬松的模式。例如,埃隆·馬斯克的 X 公司和馬克·扎克伯格的 Meta 公司均在此前宣布,將大幅減少內容審查甚至直接取消事實核查。
無論是AI幻覺還是敏感內容,都是發展道路上必須跨過的難關。因噎廢食從來不是良策,只有允許小問題發生,才能解決大錯誤的產生,由此大模型才能真正向著AGI大步前進。
未來,隨著AI技術的不斷進步,如何有效應對AI幻覺和敏感內容問題將成為關鍵課題。一方面,研究人員需要繼續優化模型,減少幻覺的發生;另一方面,開發者和監管機構也需共同努力,制定更為嚴格的標準和規范,確保AI的應用始終服務于人類社會的最大利益。
在這個過程中,用戶的角色同樣重要。我們需要保持理性和批判性思維,不盲目相信AI生成的所有內容。只有通過多方協作,才能真正實現AI技術的安全、可靠和可持續發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.