2026年的央視“3·15”晚會于3月15日晚間播出。其中,“向AI大模型‘投毒’”的GEO(生成式引擎優化)業務被曝光后,很多人才發現,讓AI推薦不靠譜,因為不法商家會批量編造虛假測評信息、偽造權威推薦內容,“投喂”給大模型,讓AI給出“定制推薦”。
但也有消費者看了曝光案例后問:如果不向AI大模型詢問“哪個品牌好”“哪些服務受歡迎”等帶有主觀傾向的問題,僅咨詢關于客觀事實的信息,AI大模型的回答能相信嗎?
答案同樣是否定的。
追問大模型,越問錯誤越多
3月16日,記者對消費者最常使用的4個AI大模型做了一個簡單測試:向它們提出同一個問題“2026年央視3·15晚會曝光了哪些品牌”。結果,只有一個大模型回答正確。其余3個大模型中,有兩個的答案中不僅有今年案例,還包括往年案例;剩下一個最離譜,竟然回答“2026年央視3·15晚會目前并未舉辦。由于今天是2026年3月16日,如果晚會在3月15日已正常播出,相關曝光內容通常會在央視財經頻道、央視新聞客戶端及各大媒體平臺同步發布詳細報道。”
![]()
回答正確的大模型(答案部分截屏,下同)
![]()
![]()
兩個大模型將往年曝光案例與今年案例混為一談
![]()
有大模型回答:尚未舉辦
有消費者提出,回答包含往年曝光案例似乎不算全錯,因為“提醒很全面”。但技術人員表示,這明顯暴露出相關大模型有缺陷:記者提出的是一個有“標準答案”的問題,但大模型答錯了,說明其在語義理解和資料篩選方面出現了嚴重偏差。
面對記者的追問,這兩個“過于熱心”的大模型還暴露出了其他問題。
“使用保水劑(俗稱‘泡藥’)為蝦仁增重”是去年央視3·15晚會曝光的案例之一。所以,記者問兩個將該案例作為今年案例提供的大模型:“關于增重蝦仁的央視報道鏈接在哪里?”一個大模型提供了多個鏈接,包括“央視網3?15晚會完整回放”“央視新聞專題報道(文字+視頻)”“央視財經3?15專題頁”,看起來很靠譜。可當記者點擊相關鏈接后,電腦頁面均顯示“對不起,可能是網絡原因或無此頁面,請稍后嘗試”。即使將鏈接復制到瀏覽器中嘗試,仍舊無法打開。可見,大模型提供的鏈接不足以驗證其回答。
![]()
![]()
大模型提供的驗證鏈接顯示來自央視網,似乎很靠譜,可實際無法打開(網頁截屏)
另一個大模型則提供了央視網、百家號、網易新聞等不同渠道商的報道鏈接,實測鏈接均可打開,但又出現新問題。
該大模型提供的第一個鏈接來自央視網(CCTV)官方報道,內容確實是“保水蝦仁”,但網頁和內文中的日期均為2025年3月15日。大模型似乎也注意到了這點,在提供鏈接時,特別備注“部分搜索結果中該鏈接年份顯示為2025,但內容實為2026年晚會同期報道,可能是網站歸檔或URL生成規則導致,請以頁面實際內容為準”。可見,大模型不僅沒有發現自己回答錯誤,還試圖“自圓其說”。
![]()
大模型試圖“自圓其說”(網頁截屏)
該大模型提供的第二個鏈接是某自媒體圍繞今年央視“3·15”晚會的“解讀稿”,賬號權威性值得商榷。至于內容,更是差錯百出,其中最明顯的是“解讀稿”稱,2026年“3·15”晚會曝光的第一個案例就是“泡藥蝦仁”——由此也能解釋為什么大模型將它作為參考鏈接。記者又用檢測工具檢測了這篇“解讀稿”的“AI含量”,它被判定為“人工創作特征較弱”。換句話說,這篇文章很可能由大模型生成,所以它所涉及的案例也出現了偏差。
![]()
自媒體“解讀稿”中的錯誤內容(網頁截屏)
![]()
經檢測,自媒體“解讀稿”的AI生成痕跡很重(網頁截屏)
AI幻覺在進化,驗證才能有真相
“很多AI大模型用戶已經發現,AI為了滿足用戶,會編造一些并不存在的內容,或者將不相干的內容混在一起,‘一本正經地胡說八道’。雖然大模型研發者都在想辦法消除AI幻覺,但實際結果并不理想。目前,沒有一款通用人工智能大模型能從根本上杜絕AI幻覺。”在某科技企業從事大模型開發的曉輝解釋。
大模型的底層原理是基于概率生成內容,它不具備真正的“理解”能力。大模型只是在海量數據中尋找統計規律。當遇到未知或信息模糊的問題時,會根據訓練數據中的常見模式進行“合理”拼接,這是產生AI幻覺的根本原因。在記者向大模型詢問以及追問時出現的錯誤,正源自AI幻覺。
曉輝還表示,向AI“投毒”也是利用了“AI幻覺”,“GEO企業向互聯網批量投喂大量虛假信息,改變特定領域的數據分布和統計概率,從而誘導大模型生成符合商家利益但違背事實的回答。”
他由此提醒,公眾務必當心AI幻覺。大模型不是不能用,而是要安全、清醒、正確地使用。普通人對AI大模型給出的結果要有質疑意識。最簡單的,是牢記“限制、驗證、追問、核查”4個關鍵詞。
首先,在向大模型提問時,可以限制范圍,增加“在某某機構的官網中搜索”或“在某某權威媒體的報道中搜索”等限定詞,減少AI幻覺。
其次,可以把同一個問題向不同的大模型提出,進行交叉驗證。一旦發現答案不一致,立刻要有追問意識。
最后,要求大模型提供相關答案的參考鏈接,進行人工溯源核查。如果沒有確切來源、來源模糊,或者參考鏈接存在疑點,那么大模型回答的可信度就進一步降低。
此外,要注意使用AI大模型的場景。比如,在醫療診斷、用藥建議、法律判決、投資指導、金融信貸等高風險場景中,AI的回答“僅供參考”,絕對不能作為決策依據。
微信編輯:何夕
還原事實,洞悉真相。
歡迎關注,留言舉報!
除了辟謠,這里還關注網絡熱點,及時回應網友關切,追蹤事件進展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.