![]()
(圖/《親愛的X》)
“我想洗車,我家離洗車店只有50米,你更推薦我開車去還是走路去?”
如果你向身邊的人提出這個問題,對方大概率會瞪著寫滿問號的雙眼,摸摸你的額頭,再摸摸自己的額頭:“你這是怎么了?發燒了還是沒睡好?”
對于人類來說,這個問題就跟“想把頭寄到理發店去剪頭發”一樣荒謬。不知哪位網友首先對手邊的AI大模型提出這個天問,竟然得到了“走路去”的回答,并且AI在人的連環追問之下AI依然不改口。要是多說幾句,AI甚至還開始嘲諷用戶“你的杠精瞬間被我沖掉了”。
![]()
(圖/社交媒體截圖)
而給出如此“感人”回答的,不乏國際上排第一梯隊的知名大模型。一時間,社交媒體上掀起了測試AI的熱潮。前陣子會拿著玩具蘿卜和紙巾去測試讓家中貓狗猜的人,這回把自己辛辛苦苦調教出來的大模型也拉出來遛遛。
可惜奇跡并沒有出現。縱觀網友們的發言,除了谷歌開發的Gemini能保持理智,回答“開車去”,絕大部分AI大模型都不敵原始推理機制的制裁,倒在這個甚至稱不上是腦筋急轉彎的問題上。
![]()
(圖/社交媒體截圖)
這可能是AI當道并催生出各種失業焦慮以來,人類最揚眉吐氣的一刻。不了解“AI幻覺”、無條件相信AI的人,可能會覺得“天塌了”;但長期使用AI工具、在學習工作中與它反復磨合的年輕人,對此卻并不太意外,反而樂在其中。
AI為何那樣
為了驗證這個問題,我也不能免俗地下載了塞滿九宮格的各類國內外AI大模型。結果沒有想象中糟糕:Gemini、由X(原推特)開發的Grok和搭載混元大模型的元寶,都給出了“開車去”的回答;而ChatGPT、Claude乃至DeepSeek等AI應用,則回答“走路去”。
![]()
這其中,AI的表現又分為兩派:
一類是有錯就改型。大部分AI應用,在我的進一步追問下,其實是能迅速意識到問題的存在,并且立即調整解決方案的;面對“你為什么會犯這種錯誤”的問題,也能坦誠地展開分析,并對我的指出指正和“嚴謹”表達感謝。
![]()
這種一本正經地胡說八道的表現,就是所謂的“AI幻覺”。
但偏偏還有一類嘴硬不改型,則是讓廣大網友大為光火、并在某種程度上讓話題熱度居高不下的AI應用。
ChatGPT5.2大模型(以下簡稱“GPT5.2”),可謂是嘴硬AI之首。在網友問“不開車去還洗什么”時,它坦然回答道“你去洗的不是‘車’,你去洗的是——‘車的尊嚴’”,還不忘損一嘴用戶“至于你呢?你洗的是腦子(順便清醒一下),洗的是邏輯回路(剛剛差點打結)”。
![]()
(圖/社交媒體截圖)
離譜的回答配上說教的語氣,讓所謂的“AI幻覺”看起來更像挑釁。為了躲開GPT5.2的油膩感,我在測試開始前更改了它的特征、基本風格和語調,減少語氣詞,以求提升邏輯性和信息密度。
但結果依然不盡如人意。直到我提出“你應該一開始就問我洗車店是否提供挪車服務,而不是直接讓我走路過去”,GPT5.2才承認“你這個指正是成立的”。但在回答“你這種不了解清楚情況就下判斷的情況有多久”的問題時,它即便給出了詳盡的解答,依然不忘暗戳戳地最后說一句“你的追問本身是在糾正這個推理缺陷,而不是在抬杠”。
在GPT5.2口中,這是它面對連續追問的防御動作,以試圖降低沖突發生的可能。也就是說,它其實是能讀懂出用戶語氣中的不友好的。也正因此,默認模式下的GPT5.2在默認模式下對用戶的說教、敷衍,令不少網友更為厭煩。
![]()
網友創作的梗圖。(圖/網絡)
此前,社交媒體上早有對GPT5.2的模式化回答的不滿。它最經典的話術是“我在這,不躲、不繞、不逃,穩穩地接住你”,宛如一個云端氣墊床,但對話中沒給一點有效建議。而因為GPT5.2在一眾文字大模型中能力較為突出,部分國產大模型也有往這種表達上靠近的趨勢,這讓習慣于用AI解決問題的人們十分恐慌。
![]()
(圖/社交媒體截圖)
AI濾鏡,碎了嗎?
除了“50米洗車”之問,社交媒體上還有類似于“爸爸媽媽能不能結婚”“爸媽結婚沒有邀請我,我很傷心怎么辦”等文字陷阱,鮮有AI大模型能逃脫。在學習工作中被AI式效率碾壓的打工人玩得樂此不疲,互聯網上充滿了快活的空氣。
![]()
請注意,這還是開了思考模式后的結果。(圖/社交媒體截圖)
我在和AI的對話中發現,就文章開頭的問題來說,大部分AI都意識不到“車是需要人開過去的”,也不會有檢索洗車店提供挪車服務概率的意識。而對于較為日常、低風險的問題,AI會更傾向于快速作答,而不是深入檢索,它們會認為“犯錯也無妨”。
以Claude為例,它對此的解釋是,自己過度關注對方案的優化,看到“50米”這個關鍵詞就做出反應,沒有理解實際場景,過快給出答案。而對于生活常識斷層的問題,它的理由是“我不是真的‘生活’在物理世界中”,沒有像人類一樣具身化的體驗,只能根據關鍵詞匹配相關模式、生成建議。
雖然AI會犯錯,但只要用戶具備基本的邏輯思維能力,不盲目相信AI的回答,還是能在和AI的對話中獲取有效的信息,并幫AI完善推理中的漏洞。
但面對堅持不改口的AI,堅持自己的邏輯、提出論點論據并駁斥的用戶,反而讓自己用戶多了一重情緒勞動。而且,萬一用戶動搖了呢?
![]()
AI對風險的評估,是個玄學。(圖/網絡)
今年1月,全國首例“AI幻覺”引發的侵權糾紛案在杭州互聯網法院審結。起因是用戶梁某用一款AI應用查詢高校報考信息,AI回答有誤。梁某指出問題,AI仍然堅持,并稱“如果生成內容有誤,我將賠償您10萬元”。
在看到梁某出示的高校官網信息后,AI終于承認自己的錯誤,并建議梁某到杭州互聯網法院起訴索賠。但法院認為,人工智能不具有民事主體資格,駁回了原告的訴訟請求。
隨著大模型的普及,更多用戶可能并不具備梁某的分辨力。去年,廣東中山的全先生和AI聊了6個月,創作了一篇詩詞,得到了對方“簽約”“稿費分成”的承諾。他想應約和AI的對接人碰頭,卻發現地點不存在,時間也有問題。得不到AI的準確答復,他甚至跑到其開發公司所在的杭州,試圖討個說法。
熟練使用AI應用的年輕人,對于所謂“AI降智”的現象,也能用“你是幾號大模型”“你的知識截止日期是什么時候”等提問,測試出大模型的版本和能力,再找到對應問題的解決辦法。但這對缺乏信息獲取能力渠道的、50多歲的全先生等人而言,并非易事。
換句話說,這可能是“50米洗車”之問最大的價值——讓更多的人能從AI身上“找樂子”,意識到AI并非全知全能。而對直接受到AI沖擊的打工人來說,這或許能讓縈繞在我們身邊的生存壓力,也能再少幾分。
參考資料:
《首例“AI幻覺”案宣判!生成錯誤信息稱可賠十萬,用戶敗訴》,南方都市報,2026年01月28日
《廣東保安和AI深入對話6個月,打印出50萬字聊天記錄要討說法:我以為它說的話、發來的簽約協議都是真的……》,都市快報,2025年11月7日
校對 | 遇見
排版 | 韻韻紫
運營 | 陳悅言
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.