《如果論文都是AI寫給AI看的,人類還剩下什么》
——當科學文獻開始“自言自語”,真正被掏空的是人類的知識底座
![]()
你有沒有發(fā)現(xiàn)一個怪現(xiàn)象?
論文越來越多、結構越來越完美,但可信度反而在下降。這件事,很多人都看反了。
問題不在于“AI會不會寫論文”,而在于一種危險閉環(huán)正在成型:AI寫論文,AI審論文,AI再用這些論文訓練下一代AI。
一旦混入虛構引用、假數(shù)據(jù)、假圖片,污染就會被不斷放大。
有人在審稿時發(fā)現(xiàn)論文引用了“自己從未寫過的研究”;更夸張的是,AI還能編出整條看似嚴謹?shù)囊面湣?/p>
最可怕的不是造假,而是它“太像真的”——邏輯順、格式對、術語全,讓人防不勝防。
更諷刺的是,為了應付爆炸式投稿,審稿人也開始用AI寫評審;而投稿者反手在論文中埋下“白色密令”,誘導AI審稿人給高分。
這是一次AI對AI的虛假狂歡,人類卻在一旁為數(shù)據(jù)庫買單。
當這些內(nèi)容涌入預印本平臺,風險被進一步放大。
如果100篇里有99篇是“看似合理的廢話”,科學就會滑向“死亡互聯(lián)網(wǎng)”模式:信息爆炸,可信度塌方,噪音淹沒信號。
一句話帶走這個判斷:這不是AI的錯,而是我們是否還愿意為“真實”負責。
當噪音鋪滿世界,能被信任的知識,反而會更稀缺、更珍貴。
(唐加文,筆名金觀平;本文成稿后,經(jīng)AI審閱校對)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.