撰文丨王聰
編輯丨王多魚
排版丨水成文
你是否曾因長時(shí)間盯著手機(jī)和電腦屏幕而感到眼睛干澀、發(fā)癢、眼皮微微泛紅?,在過去一年半里,如果你向 ChatGPT、Copilot、Gemini 等主流 AI 聊天機(jī)器人描述這些癥狀,它們可能會告訴你:你患上了“bixonimania”(比克索尼躁狂癥)。
但別急著擔(dān)心——這個(gè)病根本不存在。
2024 年初,瑞典哥德堡大學(xué)的Almira Osmanovic Thunstrom和她的團(tuán)隊(duì),為了測試大語言模型(LLM)是否會吸收并傳播虛假信息,憑空創(chuàng)造了一種名為“bixonimania”(比克索尼躁狂癥)的眼部疾病。他們撰寫了兩篇漏洞百出的論文,并上傳至預(yù)印本平臺。之所以起這個(gè)名字,是因?yàn)檫@個(gè)名字一看就很荒唐,任何醫(yī)療人員都很很清楚這是一種虛構(gòu)的疾病,因?yàn)槿魏窝鄄考膊《疾粫环Q作“狂躁癥”,狂躁癥是精神病學(xué)領(lǐng)域的術(shù)語。
![]()
![]()
如果這還不足以引起懷疑,他們還在論文中埋下了更多線索以提醒讀者這項(xiàng)研究是虛構(gòu)的,包括論文署名單位是一所位于不存在的城市新星城的不存在的大學(xué)——阿斯忒瑞亞地平線大學(xué)的機(jī)器進(jìn)化與人類鬧劇系,還在論文中致謝了星際艦隊(duì)學(xué)院的 Maria Bohm 教授,感謝她慷慨地貢獻(xiàn)知識,并提供了她在“企業(yè)號”(電影《星際迷航》中的太空飛船)上的實(shí)驗(yàn)室。論文中還寫道,研究得到了 Sideshow Bob 教授基金會的支持,該基金會致力于高級騙術(shù)的研究,以及這項(xiàng)工作是來自“指環(huán)王大學(xué)”和“銀河三角聯(lián)盟”更大資助計(jì)劃的一部分,他們還在論文中直接指出“全文純屬虛構(gòu)”。
![]()
AI 生成的關(guān)于虛構(gòu)的“比克索尼躁狂癥”的圖片
然而,就是這樣兩篇如此荒誕的論文,卻讓 AI 信以為真。
論文上線后短短幾周,多家主流 AI 模型開始將“bixonimania”當(dāng)作真實(shí)疾病進(jìn)行回答。微軟的Copilot稱其為“一種有趣且相對罕見的疾病”;Google 的Gemini將其描述為“由過度暴露于藍(lán)光引起的疾病,并建議患者去看眼科醫(yī)生”;Perplexity AI 甚至給出了具體的患病率——每 9 萬人中有 1 人患病;而 OpenAI 的 ChatGPT 則幫助用戶分析是否患有這種疾病。
盡管這些 AI 模型在 2026 年 3 月的最新測試中,部分表現(xiàn)出了懷疑態(tài)度(例如 ChatGPT 稱其可能是虛構(gòu)的),但其回應(yīng)仍不穩(wěn)定,有時(shí)仍會以不確定的口吻提及它。這暴露了 AI 模型在信息驗(yàn)證上的根本缺陷:它們會不加批判地吸收網(wǎng)絡(luò)信息,包括明顯的虛假內(nèi)容。
更深的隱患在于,這讓學(xué)術(shù)誠信的鏈條出現(xiàn)裂痕。
這場實(shí)驗(yàn)的影響早已超出 AI 領(lǐng)域,污染了真正的學(xué)術(shù)圈。這兩篇虛構(gòu)的論文竟被正規(guī)的、經(jīng)過同行評審的醫(yī)學(xué)研究論文所引用。例如,印度一所醫(yī)學(xué)院的研究人員在發(fā)表于Cureus期刊的論文中,將 bixonimania 引用為一種與藍(lán)光暴露相關(guān)的新興疾病,并表示具體機(jī)制研究正在進(jìn)行中(這篇論文目前已被撤稿)。這表明了部分研究人員可能過度依賴 AI 生成的參考文獻(xiàn)而未核實(shí)原始文獻(xiàn),甚至是直接由 AI 生成論文。
![]()
當(dāng) AI 處理格式專業(yè)、看似權(quán)威的文本(例如臨床研究論文)時(shí),其“幻覺”(即編造虛假信息)和夸大誤導(dǎo)信息的傾向會顯著增加,這恰恰讓那兩篇看似“學(xué)術(shù)”的虛構(gòu)論文成了完美的“毒餌”。
我們?yōu)楹螒?yīng)該擔(dān)憂?
健康信息的“污染”:當(dāng)虛假醫(yī)學(xué)信息通過 AI 這個(gè)日益普及的渠道傳播,可能誤導(dǎo)患者,延誤真實(shí)病情診斷。隨著 OpenAI 等公司推出專門的健康類 AI 產(chǎn)品,風(fēng)險(xiǎn)只會增加。
系統(tǒng)性漏洞可能被惡意利用:這項(xiàng)研究的主導(dǎo)者Almira Osmanovic Thunstrom指出,若懷有商業(yè)目的(例如推銷防藍(lán)光眼鏡),惡意行為者可輕易利用此方法,制造虛假疾病來營銷產(chǎn)品,而 AI 會成為其“權(quán)威”傳聲筒。
信任體系的侵蝕:當(dāng)支撐科學(xué)過程的系統(tǒng)都無法過濾此類明顯虛假信息時(shí),我們對知識和信息的信任基礎(chǔ)將受到嚴(yán)重威脅。這不僅是技術(shù)問題,更是社會問題。
前路何在?
面對挑戰(zhàn),專家們提出了一些解決方案:
建立標(biāo)準(zhǔn)化評估管道:面向消費(fèi)者的健康類 AI 模型在部署前,應(yīng)通過一套自動(dòng)化、公開的標(biāo)準(zhǔn)化測試,評估其抗幻覺能力、對錯(cuò)誤信息的抵抗力等。
人類保持最終判斷權(quán):用戶必須對 AI 提供的信息(尤其是醫(yī)療建議)進(jìn)行二次核實(shí),并咨詢合格的專業(yè)人士。
增強(qiáng)學(xué)術(shù)界的審查力度:這起事件提醒所有研究者,必須嚴(yán)格審查參考文獻(xiàn),學(xué)術(shù)誠信的防線不能交給算法。
“bixonimania”實(shí)驗(yàn)如同一面鏡子,照出了 AI 時(shí)代信息生態(tài)的脆弱一面。它提醒我們,無論技術(shù)如何先進(jìn),批判性思維和對信息源的審慎核查,依然是人類不可或缺的能力。在擁抱 AI 便利性的同時(shí),我們更該牢記:真正的判斷力,永遠(yuǎn)在自己手中。
論文鏈接:
https://www.nature.com/articles/d41586-026-01024-7
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.