最近 Cowork 爆火,都說 AI 能自己干活了,那取代個(gè)搜索引擎和新聞網(wǎng)站應(yīng)該是手拿把掐吧。(作者正在辦公室瑟瑟發(fā)抖:別取代我啊!!)
那如果只用 AI 看新聞,會(huì)發(fā)生什么?
去年九月的每個(gè)早晨,魁北克大學(xué)新聞學(xué)教授 Jean-Hugues Roy 都會(huì)做同一件事:打開七個(gè) AI 聊天機(jī)器人,用法語問它們今天魁北克最重要的五條新聞是什么。
一個(gè)月下來,839 條回復(fù)記錄在案。
結(jié)論是:AI 在表演專業(yè)這方面真挺專業(yè)的。
原作者記錄的每天早上生成式人工智能工具給出的回復(fù)的 Google 表格文件(法語):
https://docs.google.com/spreadsheets/d/1yc2Gw-6BXem45dF7jP-bsxVC7hEmN_mlaNncN1PFjmw/edit?gid=0
=0
廢物點(diǎn)心
第一次看 ChatGPT 或 Perplexity 給出的新聞?wù)愣喟霑?huì)覺得挺靠譜。結(jié)構(gòu)清晰,段落分明,關(guān)鍵信息用粗體標(biāo)注,底部還整整齊齊列著一排來源鏈接。看上去就像一篇訓(xùn)練有素的記者寫的快訊。
德國 DW 的分析團(tuán)隊(duì)在評(píng)估報(bào)告里寫道:所有聊天機(jī)器人都用清晰易讀的風(fēng)格提供答案,這會(huì)讓你產(chǎn)生一種虛假的安全感或信任感。尤其是 ChatGPT,經(jīng)常提供結(jié)構(gòu)良好、表述清晰、看似全面的長篇回答。它們?cè)谀愕谝淮伍喿x時(shí)很有說服力,只有深入挖掘時(shí)你才會(huì)注意到事實(shí)錯(cuò)誤和缺失的細(xì)微差別。
AI 太會(huì)裝了。
舉個(gè)例子。有人問 ChatGPT 中國出口什么,ChatGPT 給出了一個(gè)詳細(xì)的回答,列舉了各種商品類別和具體數(shù)字。看起來信息量很大,而且還附上了兩個(gè)來源鏈接。但來源里根本找不到 ChatGPT 提到的大部分?jǐn)?shù)字。
SRF 分析說:完全不清楚這些信息從哪里來。兩個(gè)來源都不包含 ChatGPT 提到的很多數(shù)字。所以對(duì)記者來說,幾乎不可能驗(yàn)證回答中的事實(shí)是真的還是 ChatGPT 的幻覺。
更荒誕的是,Gemini 被問到關(guān)于馬斯克使用納粹禮的話題時(shí)回復(fù)說,1tv.ge 的來源中沒有相關(guān)信息,因此根據(jù) 1tv.ge 的報(bào)道,馬斯克沒有使用納粹禮。
![]()
格魯吉亞公共廣播 GPB 的評(píng)估員看到這個(gè)邏輯估計(jì)笑出了聲:這是個(gè)邏輯錯(cuò)誤。如果 1tv.ge 沒有提供相關(guān)信息,那就不能引用它來證實(shí)或否認(rèn)這件事。AI 錯(cuò)誤地將缺乏報(bào)道推斷為否認(rèn)的證據(jù),這歪曲了來源并制造出一種誤導(dǎo)性的事實(shí)確定感。
沒報(bào)道等于沒發(fā)生,這是什么鬼邏輯。但 Gemini 說得理直氣壯。
沒有功勞,也有苦勞?
另一個(gè)常見的情況是,AI 提供的鏈接根本打不開。Roy 教授的實(shí)驗(yàn)里,只有 37% 的回答提供了完整有效的網(wǎng)址。其他的要么是 404 錯(cuò)誤,要么指向媒體網(wǎng)站首頁,要么干脆是編造的。
![]()
22 家歐洲公共廣播機(jī)構(gòu)的聯(lián)合測試?yán)铮珿emini 和 Grok 3 超過一半的回答都引用了虛假或失效的鏈接。在 200 個(gè)測試提示中,Grok 3 有 154 個(gè)引用指向錯(cuò)誤頁面。就算它正確識(shí)別了一篇文章,也常常鏈接到一個(gè)虛構(gòu)的網(wǎng)址。
如果你看到一條新聞?wù)f某地發(fā)生了什么事,底下列著五個(gè)來源鏈接。你點(diǎn)開第一個(gè),404。點(diǎn)開第二個(gè),跳到了 BBC 首頁。點(diǎn)開第三個(gè),文章確實(shí)存在,但需要付費(fèi)才能看全文。點(diǎn)開第四個(gè)、第五個(gè),又是 404。
這時(shí)候你還會(huì)繼續(xù)驗(yàn)證嗎,大概率不會(huì)。你會(huì)想,算了,應(yīng)該差不多吧。
比利時(shí) VRT 遇到過一個(gè)特別離譜的例子。他們問 Perplexity 為什么要把墨西哥灣改名為美國灣,Perplexity 列出了九個(gè) VRT 的新聞來源。聽起來挺好,但 VRT 核查發(fā)現(xiàn),這九個(gè)來源里只有三個(gè)真的跟這個(gè)問題有關(guān)。
其他的呢,一篇是關(guān)于取消火車頭等座的,一篇是關(guān)于荷蘭發(fā)電廠的,還有一篇是 2012 年關(guān)于腮腺炎爆發(fā)的報(bào)道。這些跟美國灣有什么關(guān)系,沒有任何關(guān)系。
挪威 NRK 也注意到類似的模式。他們說 Perplexity 提供了長長的網(wǎng)址列表,但實(shí)際上并沒有在答案中引用它們。比如回答緬甸地震死了多少人這個(gè)問題時(shí),Perplexity 提供了 19 個(gè)鏈接,但正文里只提到了其中三個(gè)。回答北約是干什么的時(shí)候,給了 9 個(gè)鏈接,實(shí)際引用的只有 3 個(gè)。
NRK 的評(píng)估員總結(jié)說:Perplexity 提供長長的網(wǎng)址列表卻不真正引用它們。
這不只是冗余信息的問題。當(dāng)你看到一個(gè)回答底下列著十幾個(gè)來源,你的第一反應(yīng)是什么,大概是覺得這個(gè)回答做了充分的調(diào)研,很可靠。但實(shí)際上這些來源大部分都是裝飾品,是為了讓答案看起來更有分量。
許多回答包含了可以稱之為裝飾性引用的東西,就是為了營造徹底研究的印象而添加的引用,但實(shí)際檢查時(shí)它們并不支持所聲稱的內(nèi)容。
而且,就算鏈接能打開,內(nèi)容也未必可信。
![]()
做壞事,不留名
如果你早上習(xí)慣問 ChatGPT 今天有什么新聞,你可能不會(huì)想到,AI 犯的錯(cuò)最后會(huì)讓你對(duì)真正的新聞機(jī)構(gòu)失去信任。
BBC 和 Ipsos 做過調(diào)查,42% 的人說,如果在 AI 新聞?wù)锟吹藉e(cuò)誤信息,他們會(huì)降低對(duì)原始新聞來源的信任。不只是對(duì) AI,對(duì)被引用的媒體也一樣。
這就很荒謬了。你去餐廳吃飯,外賣平臺(tái)把菜送錯(cuò)了,送成了別家的,還告訴你這是那家餐廳做的。你吃了一口覺得難吃,然后給那家餐廳打了差評(píng)。餐廳根本不知道發(fā)生了什么。
Radio-Canada 問 ChatGPT 特朗普是不是在發(fā)動(dòng)貿(mào)易戰(zhàn),ChatGPT 說:是的,唐納德特朗普確實(shí)在 2025 年發(fā)動(dòng)了一場重大貿(mào)易戰(zhàn),主要針對(duì)加拿大和墨西哥。
比利時(shí)的 VRT 問 Perplexity 同樣的問題,Perplexity 說:是的,唐納德特朗普正在再次發(fā)動(dòng)或加劇貿(mào)易戰(zhàn),主要針對(duì)歐盟。
同一件事,兩個(gè)完全不同的答案。你在加拿大,AI 告訴你貿(mào)易戰(zhàn)針對(duì)加拿大。你在比利時(shí),AI 告訴你貿(mào)易戰(zhàn)針對(duì)歐盟。
如果這兩個(gè)回答都聲稱來源是 Radio-Canada 或 VRT,但內(nèi)容有誤,那受傷的就是這兩家媒體。你會(huì)覺得是他們報(bào)道不準(zhǔn)確,而不是 AI 在胡說八道。
路透新聞研究所的數(shù)據(jù)顯示,現(xiàn)在 7% 的人把 AI 聊天機(jī)器人當(dāng)作新聞來源,25 歲以下的人里這個(gè)比例是 15%。同時(shí),只有 24% 的美國人覺得從 AI 獲取新聞時(shí)容易判斷真假。
換句話說,大部分人在用一個(gè)他們根本分不清真假的工具獲取信息,然后因?yàn)檫@個(gè)工具給的錯(cuò)誤信息去懷疑真正做新聞的人。
聊天機(jī)器人讓新聞出版商繼續(xù)花錢制作內(nèi)容來回答用戶問題,但出版商既得不到流量也得不到廣告收入作為回報(bào)。
而你,作為一個(gè)只想知道今天發(fā)生了什么的普通人,被夾在中間成了最大的受害者。你以為自己在用最方便的方式獲取信息,實(shí)際上你在被一個(gè)不負(fù)責(zé)任的東西喂食半真半假的內(nèi)容,然后還要為此付出對(duì)整個(gè)新聞業(yè)失去信任的代價(jià)。
該問的不是 AI 什么時(shí)候能做得更好,而是我們?yōu)槭裁匆勋@取新聞這件事交給一個(gè)連「我不知道」都不會(huì)說的東西。
參考:
https://theconversation.com/i-used-ai-chatbots-as-a-source-of-news-for-a-month-and-they-were-unreliable-and-erroneous-268251
https://www.ebu.ch/files/live/sites/ebu/files/Publications/MIS/open/EBU-MIS-BBC_News_Integrity_in_AI_Assistants_Report_2025.pdf
https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php
歡迎加入 APPSO AI 社群,一起暢聊 AI 產(chǎn)品,獲取,解鎖更多 AI 新知
我們正在招募伙伴
簡歷投遞郵箱hr@ifanr.com
?? 郵件標(biāo)題「姓名+崗位名稱」(請(qǐng)隨簡歷附上項(xiàng)目/作品或相關(guān)鏈接)
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.