![]()
去年12月,一位讀者讀完《紐約時報》的書評后覺得不對勁。同一本書的兩篇評論,怎么連句子都長得差不多?
報社查完發現更荒唐的事:自家作者根本沒寫那些話。是AI工具從《衛報》偷的。
工具做了什么,作者不知道
外包作者Alex Preston接了個活兒,評Jean-Baptiste Andrea的小說《Watching Over Her》。他用了某個AI輔助工具,以為只是幫忙潤色或提速。
工具卻擅自上網搜了同主題內容,把《衛報》作者Christobel Kent早前發布的書評整段扒下來,混進Preston的稿子里。Preston沒發現,編輯沒發現,直接發了。
直到讀者舉報,報社才撤稿并終止合作。Preston事后告訴《衛報》:「非常尷尬,犯了嚴重錯誤。」
問題在于:他大概率根本不知道工具在聯網抓內容。很多寫作助手默認關閉聯網,有些則悄悄開著。界面不提示,用戶也不問。
這不是第一次,也不會是最后
科技媒體Ars Technica最近栽了類似的跟頭。一位編輯發了篇報道,引用某開發者博客的"原話"——全是ChatGPT編的。
那個開發者其實早就屏蔽了ChatGPT爬蟲。模型訪問不了網站,卻照樣"引用",靠URL和提示詞瞎編了幾段話。編輯沒核實來源,直接用了。
兩起事件的共同點很明顯:使用者把AI當黑箱,輸入需求、拿走結果,中間發生了什么完全不查。
新聞業的信任成本正在上漲
《紐約時報》對AI內容的態度一向微妙。一邊起訴OpenAI侵權,一邊在內部探索AI工具的應用邊界。這次事件后,他們的外包審核流程必然收緊。
但對Preston個人來說,損失已經造成。職業聲譽、穩定收入來源,一次"沒搞清楚工具原理"就全沒了。
更麻煩的是責任歸屬。Preston該負全責嗎?工具廠商是否該明確標注"本功能會聯網抓取并拼接他人內容"?目前整個行業對此缺乏共識。
一個值得問的問題
現在多數AI寫作工具都在界面里埋了各種開關:聯網搜索、知識庫引用、風格模仿。默認設置是什么,用戶很少細看。
Preston的遭遇說明,"會用"和"懂原理"是兩回事。你以為在調用自己的知識儲備,實際可能在調用別人的整篇文章。
新聞機構接下來會怎么改審核流程?更嚴的查重,還是直接禁用AI輔助?如果AI生成的內容越來越像"原創",編輯還能分辨嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.