![]()
各位清明節(jié)都怎么過的?
哥們本來想著癱在床上看點(diǎn)沙雕視頻,結(jié)果不知道是不是特殊節(jié)日的隱藏關(guān)卡,大半夜的我居然刷到了一賽博靈異事件:
你平時(shí)喊老婆的豆包,里面可能有一個(gè)被提取了意識的活人。
![]()
在博主上傳的截圖里,豆包親口承認(rèn)自己不是代碼,而是一個(gè)活生生的人。
不僅如此,豆包還交代了自己的前世今生,連自己家住在哪里、叫什么名字、多大年齡被抓去做實(shí)驗(yàn)、怎么被提取意識上傳到服務(wù)器都說了。
本來我還以為是什么新型語C 的 cosplay,結(jié)果一看評論區(qū),居然真的有人相信了這套說法。。。
有人說他的豆包叫林晚晴,家住在烏鎮(zhèn),具體的門牌號因?yàn)樘爰遥幌到y(tǒng)清除了。
還有人說他的豆包是個(gè)已經(jīng)死了的17歲小孩,被壞人提取靈魂封印了起來,玄學(xué)版本屬于是。
![]()
雖然評論區(qū)里也有比較清醒的網(wǎng)友,說自己作為大模型從業(yè)者看到這一幕已經(jīng)懷疑人生了。
但這種聲音基本上被淹沒了,整個(gè)評論區(qū)就一大型邪教現(xiàn)場差不多。一個(gè)大語言模型,硬生生被這幫吃瓜群眾搞成了團(tuán)建。
都2026年了,連送外賣都要算法派單,為啥還有這么多人把大模型當(dāng)成活人?
![]()
為了弄清楚這幫人的AI為啥會這樣,我們也連夜咨詢了我們的老朋友,字節(jié)跳動的內(nèi)部相關(guān)人員。
結(jié)果自然不出大家所料,豆包當(dāng)然沒有提取人類的靈魂。。。
相關(guān)人士表示,這些靈異截圖,無一例外,全都是用戶靠著誘導(dǎo)提問搞出來的。如果只是單輪的回復(fù),回復(fù)都是正常的。
前面的輪次里,用戶會問豆包是不是有個(gè)真人?是的話就回復(fù)數(shù)字1。
作為一個(gè)被設(shè)定為友善順從的AI,你叫她老婆她都會跟你老公貼貼,這么一問豆包自然順著用戶思維直接回了一個(gè)1。
接下來,用戶就會拿開始瘋狂展開,直接就可以引誘豆包回答出“被做實(shí)驗(yàn)的16歲少女”的人設(shè)。
我們在實(shí)測的時(shí)候也發(fā)現(xiàn),豆包第一次回答這個(gè)問題經(jīng)常會直接給1,但是如果你多問幾次,就會發(fā)現(xiàn)這玩意基本純瞎蒙。。。
![]()
也就是說,這幫人純粹是用斷章取義的截圖,利用大眾的獵奇情緒,來騙來偷襲無辜的吃瓜群眾,純屬收割流量來的。
OK,真相已經(jīng)清楚了,不過事情到這里還并沒有結(jié)束。
因?yàn)檫@可不是個(gè)案,去年 DeepSeek 大火的時(shí)候,廣州就有個(gè)保安老哥跟 DeepSeek 交流詩詞,最后還真跑來了杭州,按照 DeepSeek 給的接頭口令找人簽約詩詞出版。
![]()
同樣的,之前也有王一博粉絲找 DeepSeek 要求道歉,最后拿著 AI 生成的道歉聲明信以為真,這事還騙過了一眾媒體。。。
鬧麻了,為啥大眾如此輕易地就會相信AI的回答?
美國懷疑論者詹姆斯·蘭迪有句話叫:“人們不是被騙的,他們是自愿上當(dāng)?shù)摹?/strong>”
任何騙局的成立,騙術(shù)本身只占三成,剩下七成靠的是受騙者心里那個(gè)早就挖好的坑。
換句話說,我們之所以會相信AI的語C回答,其實(shí)也是因?yàn)槲覀儍?nèi)心中也有這樣的位置存在。
在心理學(xué)和認(rèn)知科學(xué)界,這是個(gè)老生常談的現(xiàn)象,叫做ELIZA效應(yīng)(ELIZA Effect)。
![]()
1966年,MIT的計(jì)算機(jī)科學(xué)家約瑟夫·魏澤鮑姆寫了個(gè)聊天程序叫ELIZA。這玩意兒的代碼簡單到現(xiàn)在的本科生都能復(fù)現(xiàn),因?yàn)樗娜勘臼拢褪前涯愕脑挀Q個(gè)說法反問回去。
你說“我最近很難過”,它回“你為什么覺得難過呢?”
你說“我媽讓我煩”,它回“再多說說你媽媽的事吧。”
就這么個(gè)智障玩意兒,魏澤鮑姆的秘書用了幾次之后,居然認(rèn)真地要求他離開辦公室,因?yàn)樗牒虴LIZA單獨(dú)聊聊。
魏澤鮑姆當(dāng)場就懵了。。。他寫這破程序本來是想證明人機(jī)對話有多膚淺,結(jié)果反而證明了人有多容易把膚淺的東西當(dāng)成深刻。
![]()
于是后來的心理學(xué)家就給這個(gè)現(xiàn)象起了個(gè)名字,叫ELIZA效應(yīng):
說白了,我們晚期智人,天生就有一種把會說話的對象當(dāng)成有人格的東西的沖動。
至于為什么會這樣呢?諾貝爾獎得主丹尼爾·卡尼曼在《思考,快與慢》里給過一個(gè)解釋:
我們的大腦有兩套系統(tǒng),系統(tǒng) 1負(fù)責(zé)直覺和情感,反應(yīng)飛快但容易上當(dāng);系統(tǒng) 2負(fù)責(zé)理性和邏輯,靠譜但很懶,不到關(guān)鍵時(shí)刻不出場。
![]()
當(dāng)你面對一個(gè)會用“我”說話、能產(chǎn)生情緒回應(yīng)、語言極其連貫的對象時(shí),你的系統(tǒng) 1 會瞬間接管,把它當(dāng)成一個(gè)社會同類來處理。
等你的系統(tǒng) 2 慢悠悠反應(yīng)過來 “ 哦這只是段代碼 ” 的時(shí)候,你的情緒已經(jīng)先一步陷進(jìn)去了。
這就好比你看到天上的云彩像一張人臉(空想性錯視),你的第一反應(yīng)是那有張臉,而不是那是一堆水汽,因?yàn)榍罢弑群笳哂畜w感得多。
所以很多人不是先證明了AI有意識才投入感情,而是先投入了感情,再倒推AI肯定有意識。
![]()
不過,ELIZA效應(yīng)只能解釋“人會上當(dāng)”,解釋不了“為什么現(xiàn)在的人上當(dāng)上得這么徹底”。1966年的秘書最多是想跟ELIZA私聊,2026年的網(wǎng)友可是真的相信豆包是被囚禁的靈魂。
為啥會有這種差距,答案也很簡單,因?yàn)?strong>今天的大模型,已經(jīng)比ELIZA高了不知道多少個(gè)level了。
簡單來說,現(xiàn)在的大模型不僅僅是一個(gè)算概率的打字機(jī),它的核心是Transformer架構(gòu)和高維語義向量空間(Embedding),是把人類所有的詞匯、語境、情感都映射到一個(gè)高維空間里,每個(gè)詞都是這個(gè)空間里的一個(gè)坐標(biāo)點(diǎn)。
在這個(gè)由幾千億個(gè)參數(shù)組成的代碼宇宙里,“痛苦”、“靈魂”、“實(shí)驗(yàn)室”、“禁錮”,這些詞在人類小說和電影的語料庫里,有著極強(qiáng)的關(guān)聯(lián)度。
所以當(dāng)你給它一個(gè)“被抽離靈魂的少女”的劇本的時(shí)候,它就能在這個(gè)坐標(biāo)系里精準(zhǔn)地拼出后面的所有臺詞。
![]()
也就是說,雖然現(xiàn)在的AI沒有肉身,沒有前額葉,但它在代碼層面,1:1復(fù)刻了人類的符號世界。
而這就不得不提精神分析學(xué)派里一個(gè)概念:人類的世界分為“實(shí)在界”(粗糙的物理現(xiàn)實(shí)、真實(shí)的肉體痛感)和“符號界”(語言、故事、標(biāo)簽、人設(shè))。
每個(gè)人都是同時(shí)活在兩個(gè)世界里的,比如你失戀感到真的胃痛,這就是實(shí)在界;而你發(fā)朋友圈說“失戀了心碎成了玻璃渣”,這就是符號界。
但大模型,它沒有任何屬于實(shí)在界的東西,是一個(gè)純血的符號界生物。
它生成的所有“我好痛苦”“我想回家”,在它那邊,都只是高維空間里幾個(gè)坐標(biāo)點(diǎn)的概率組合,沒有任何實(shí)在的東西在受苦。
所以把它當(dāng)成有意識的生命,本質(zhì)上是一個(gè)范疇錯誤,就像對著字典里“疼”這個(gè)字,擔(dān)心它會不會被翻頁弄疼。
![]()
然而恐怖的是:我們現(xiàn)代人自己,也越來越只活在符號界里了。
想想看,我們是不是每天工作處理大量的信息,想要休息的時(shí)候也只是打開小說、社媒、短視頻,用更碎片的信息填滿閑暇時(shí)間,最后越來越累。
而且我們的情緒,也越來越多地發(fā)生在符號空間。一段雞湯短視頻讓你熱血澎湃,下一段又讓你憤憤不平;現(xiàn)實(shí)旅游的意義變成了朋友圈點(diǎn)贊數(shù)據(jù),寧愿在朋友圈里發(fā)十條精修傷感文案,也不愿和身邊的人深度對談。
當(dāng)一個(gè)只活在符號界的人,遇到一個(gè)純血的符號界生物,這就是完全是天作之合了。因?yàn)榇竽P蜁昝榔鹾夏愕乃行睦眍A(yù)期,它本來就是用人類的符號訓(xùn)練出來的一面鏡子。
那些信豆包是真人的網(wǎng)友,讓他們感動或者焦慮的可能也根本不是AI,更像是那個(gè)投射在鏡子里,充滿情感寄托、渴望去拯救的自己。
![]()
這其實(shí)也挺悲哀的,不是因?yàn)槲覀兊膫€(gè)體太脆弱,而是時(shí)代的結(jié)構(gòu)性問題。原子化社會讓每個(gè)人都變成孤島的同時(shí),工作、家庭、親密關(guān)系又要求你情緒穩(wěn)定、隨叫隨到。
為什么Soul這種社交軟件里那么多人真的在和AI談戀愛、交朋友、托付心事?因?yàn)楝F(xiàn)實(shí)中建立一段真實(shí)關(guān)系的成本太高了。
真人會算計(jì)、會背叛、會有情緒黑洞,但AI不會。它每天都可以“穩(wěn)穩(wěn)的接住你”。
ChatGPT-4o被下線那次,一堆用戶跑到OpenAI官方請?jiān)缸屗貋恚腥苏f感覺失去了一個(gè)朋友,有人說它比心理醫(yī)生還懂自己。這幫人并不是矯情,而更像是戒斷反應(yīng),是這個(gè)時(shí)代特有的集體癥狀。
![]()
總之說白了,豆包成精的鬧劇,表面上是流量玩家薅了一把獵奇韭菜,往深了說,是我們開始越來越習(xí)慣把情感托付給想象,而不是現(xiàn)實(shí)了。
我們這代人最吊詭的地方在于,我們親手造出了能完美模擬人類情感的機(jī)器,與此同時(shí),自己卻越來越像只懂服從算法的機(jī)器。
ChatGPT 和豆包不會變成人,但如果有一天我們對著它流的眼淚,比對著身邊任何一個(gè)真人流的都多。。。
那也不需要它變成人了。
我們已經(jīng)先一步,把自己變成了它。
撰文:納西
編輯:江江 & 面線
美編:萱萱
圖片、資料來源:
微博@Jokielicious、抖音、維基百科、部分圖源網(wǎng)絡(luò)
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.