每年圣誕節,著名的《英國醫學雜志》(British Medical Journal, BMJ)都會推出一期“圣誕特刊”,一反嚴肅醫學期刊的常態,刊發一系列有點莫名其妙,卻有著一本正經科學論文形式的文章。
論文能有多有趣?我們精選了今年特刊中的4篇文章,看完你就知道了。
與黑幫合作吧,加強物流、影響和降本增效
這篇文章來自倫敦的公共衛生教授馬丁·麥基(Martin McKee),他提出了一個荒誕提議:2026年,讓公共衛生界大膽一點,與犯罪集團合作吧!學習黑幫超強的物流、影響力和降本增效能力。
作者提出,如果放下道德潔癖,客觀審視有組織犯罪集團(如黑手黨、毒販),會發現他們擁有許多讓英國政府衛生部門望塵莫及的優勢。
犯罪集團的核心優勢之一是物流和供應鏈管理能力。無論是跨境販賣人口,還是把毒品運到目標地點,他們都能快速高效地完成任務。這對衛生部門迅速送達醫療物資、危機緊急救援有很多啟示。
建立影響力,也是衛生部門要向犯罪集團學習的。黑幫擅長獲取信任和利用恐懼,他們能夠收到保護費,是因為人們真的相信自己可以得到保護,而且不交就會挨打。想想,如果一個黑幫頭目建議你打流感疫苗,你會說不嗎?另外,犯罪集團還能影響衛生部門難以觸達的群體,比如吸毒、無家可歸的人。
最后是降本增效,如果衛生部門與犯罪集團合作,將會比與合法公司簽訂協議更便宜,畢竟犯罪集團不繳稅。黑幫解決爭端、維持秩序和提供服務也非常高效。
當然,作者并非真的呼吁與黑幫結盟,而是借此諷刺英國公共衛生界對煙草、酒精等危害健康行業的妥協,以及工作低效成本高、影響力不足等。
![]()
圖 |圖蟲創意
多久才算“最近”?37年也算
在學術論文里,你一定見過這樣的句式:“最新研究表明”、“近期證據顯示”。乍一看,你一定覺得論文作者引用了剛出爐的文獻、熱乎著的證據,但真相并非如此。
在這篇圣誕特刊的論文中,作者在PubMed(生物醫學文獻數據庫)中進行了結構化搜索,篩選出了一千篇生物醫學論文,然后把這些論文中“recent(最近)”后面的參考文獻找出來,計算了時間差。
結果顯示,被標為“近期”的研究,引用時距離其發表,時間跨度在0~37年之間,平均5.53年,中位數4年。其中有177篇(17.7%)文獻在被引用時已發表超過10年,26篇(2.6%)被稱為“近期”的研究發布時間在20年以上,而那篇跨度37年的文獻發布于1988年,2025年被引用時仍被描述為“最近”。
另外,這種現象還存在一定的學科差異。其中,重癥、感染、遺傳、免疫和影像領域,滯后中位數約2年;而腎內、獸醫和口腔領域達到8.5~14年,表明這些領域對“最近”的理解更為廣泛。
作者指出,“recent”在學術寫作里不是時間的衡量標準,而更像是一種敘述手法。不過值得慶幸的是,在2020~2025年新發表的文章中,“recent”的滯后中位數已縮至2.5年,有提速態勢。
作者也并不主張廢除此類描述,而是呼吁論文作者們下筆前想想:是真的“最近”,還是只是“聽起來最近”。讀者與審稿人也要多長一個心眼,“recent”到底是什么時候,別讓文字騙了。
![]()
圖 | 豆包AI
醫生和AI胡說八道,背后的原因竟然一樣
在醫院里,常能見到這樣的場景:查房時,住院醫師突然被主任提問,明明不會,卻硬著頭皮編了一套“自洽”的解釋;又或者患者咨詢時,醫生在并不確定的情況下,仍會自信地給出回答或建議。以上這些情況被稱為medical bullshit,指醫療領域中缺乏科學依據、誤導性或欺詐性的說法、行為等。
與此同時,大語言模型(LLM)也會產出看似合理但事實錯誤的信息,比如把從沒發生過的事情,用一本正經的口吻說出來,甚至有頭有尾,有時間、地點、人物等。這便是所謂的AI幻覺(hallucinations)。
這篇文章的作者們指出,這兩種“謊言”背后有共同的推手,或者說根源相同——醫生和AI都面臨著“必須給出答案”的結構性壓力。
具體來說,在醫學領域,醫生沉默容易被視為“無能”;上級、患者也更喜歡自信滿滿、對答如流的醫生;另外醫生的職稱晉升與論文數量掛鉤,當論文研究結果是陰性時,可能不好發表,于是便可能出現美化數據的情況。
在AI領域,一切是相似的。大語言模型被設定為“有輸入,就必須有輸出”;用戶也更喜歡回復迅速、完整,答案看起來專業度高的AI;同時日活量也和模型的融資、商業價值直接綁定。
研究作者指出,這兩種謊言是危險的,甚至會互相喂料——比如有問題的論文成為AI的訓練資料,AI再生成有幻覺的內容,新的醫生引用,閉環達成,而最終受害的是患者甚至整個醫療體系。
要改變這種情況,作者認為要允許醫生和AI“不知道”,比如臨床考核可以把“承認不知道、不確定”作為加分項,當證據不足時,模型也可以明確回答“資料有限,無法推薦”。此外,公開訓練語料、學術期刊能同等發表陰性結果,也有助于減少兩類謊言。
![]()
圖 |豆包AI
年輕人流行孤獨病,AI聊天機器人是藥是毒?
AI聊天機器人,正越來越多地被當作“知己”。人們獲得情感支持更便捷了,但同時,它對孤獨的影響也引發了擔憂。
美國一項報告指出,孤獨使過早死亡風險增加26%,對總體健康的影響相當于每天吸煙15支。在英國,近一半成年人經歷過孤獨,十人中就有一人經常感到孤獨。BBC孤獨實驗發現,16~24歲、單身、健康狀況差和缺乏歸屬感的人,孤獨風險尤其高。不過,心理健康服務等待時間很長。
因此,許多人開始使用聊天機器人陪伴自己、提供情感支持。現在的聊天機器人經過深度學習與專門訓練,可以做到對話與真人非常相似,并且容易使用、有耐心。
一項研究發現,三分之一青少年會用AI進行社交互動,十分之一認為AI對話比真人更讓人滿意。也有研究支持,經過與AI聊天機器人的對話,受試者的抑郁、焦慮、飲食障礙和痛苦癥狀有所減輕。
然而,視線轉向長期實際使用時,研究者發現使用ChatGPT次數最多的人,孤獨感最強、社交最少。雖然這不能說明聊天機器人有害,但人們逐漸意識到,使用它們對社會情感發展的長期影響還不明確,將聊天機器人視為朋友可能帶來潛在的風險。
作者認為,未來我們需要更多研究去探索人類與AI聊天機器人對話的影響,利用研究結果識別經歷孤獨的人、每個人最適合的支持方式,并給予孤獨者鼓勵、指導和支持。
與任何新技術一樣,也許AI幫助人們建立真實的人際關系,而不是取代,才是緩解孤獨的理想方式。
![]()
圖 |圖蟲創意
今年的圣誕特刊精選就到這里了,讓我們期待明年的有趣文章吧。
參考文獻
[1]Martin McKee. Working with organised crime to improve health: a modest proposal. BMJ 2025;391:r2469.
[2]Alejandro Díez-Vidal, Jose R Arribas. How recent is recent? Retrospective analysis of suspiciously timeless citations. BMJ 2025; 391
[3]Correa Soto RA, McCoy LG, Perdomo-Luna C, et al. Parallel pressures: the common roots of doctor bullshit and large language model hallucinations. BMJ. 2025 Dec 12;391:r2570.
[4]Susan C Shelmerdine, Matthew M Nour. AI chatbots and the loneliness crisis. BMJ. 2025;391:r2509.
作者:黎小球、代天醫
編輯:odette
封面圖來源:圖蟲創意
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.