生成式AI如何助推“互聯網已死論”,引發真實性危機,以及為什么AI檢測工具無法拯救我們。
作者:ToxSec2025年10月28日
![]()
AI正在加速“互聯網已死”理論的出現。
簡而言之:你在網上感受到的那種詭異感是真實的。互聯網上充斥著大量AI生成內容,它們模仿人類的能力遠勝于我們識別它們的能力。真實性已然終結。我會向你解釋為什么我們在這場戰斗中已經節節敗退。
- 我們已經從‘垃圾信息時代’邁入了‘模擬造假時代’。
“恐怖谷效應” 籠罩整個互聯網
坦白說,你肯定也有過這種感受:刷網頁時突然覺得不對勁。讀產品評論,某條寫得過于完美,精準踩中所有營銷關鍵詞,熱情得不像真人;看評論區,某條回復千篇一律,毫無靈魂,仿佛是用一堆 “安全話術” 拼湊而成。語法無可挑剔,卻少了人類該有的靈氣。
多年來,我們都把這些情況歸為普通垃圾信息。但這種詭異感越來越頻繁,而且虛假內容不再粗糙。曾經零星的偽造信息如今已泛濫成災,AI生成的內容鋪天蓋地而來。我們正飛速從 “人類為人類打造的互聯網”,轉向 “機器為人類打造的互聯網”—— 而這些機器的 “工作能力” 已經可怕到令人心驚。
這絕非 “更高級的垃圾信息” 那么簡單。我們正在親眼見證一個個性化、合成化的虛擬世界誕生。
“互聯網已死理論”迎來重大升級
為了把握未來的發展方向,我們必須回顧一下“互聯網已死論”。這個理論最初在網絡論壇上興起,是一種聽起來頗為可信的陰謀論。其核心觀點是,互聯網早已空洞無物,大量的網絡活動都是由機器人偽造的,目的是為了操縱搜索算法和廣告收入。當時,大多數人將其視為科技界的妄想癥。
嗯,這種擔憂現在看來頗具先見之明,因為這些機器人剛剛通過大型語言模型(LLM)進行了重大升級。過去簡單的腳本已被生成式人工智能所取代。這種變化令人震驚。如果說舊機器人是提線木偶,那么現代AI就是一支充滿創造力的智能體大軍,能夠以驚人的規模構思出獨特、貼合語境、酷似人類的合成內容。
這項技術飛躍徹底改變了游戲規則。新一代AI的目標是更高層次的博弈:模擬文化本身。其目標不再是偽造一條評論,而是制造一種廣泛的社會共識感。
歡迎來到你的專屬虛假互聯網
真正的危險不在于互聯網充斥著虛假內容,而在于這些內容是 “為你量身定制” 的。我們面臨的不是一個統一的虛假互聯網,而是數百萬個個性化的AI虛擬世界。這便是終極的AI回音室,一個完美的現實氣泡,你可能根本意識不到自己是唯一的 “居民”。
想象一下,一個搜索引擎能夠即時生成文章,完美地印證它認為你已經相信的事情。再想象一下,社交媒體上的所有評論都來自AI生成的、旨在與你觀點一致的賬號。這就是在個人層面上制造認同的方式。當你看到的每篇文章、每條評論都支持你的世界觀時,它就不再是 “觀點”,而會變成你眼中的 “客觀事實”。
最大的犧牲品是 “偶然性”—— 那種偶遇新想法、接觸反對意見的魔力。互聯網曾是混亂卻真實的公共廣場,而AI定制的現實里沒有 “意外之喜”。它是一個干凈的空間,通過消除認知失調讓你保持沉浸,卻也為定向AI虛假信息鋪平了道路。
AI檢測領域的軍備競賽已經輸了
所有人都會問:“我們不能開發AI內容檢測工具嗎?” 想法很好,但我們正陷入一場注定要輸的瘋狂軍備競賽 —— 生成器永遠占據上風。
檢測工具的工作原理是識別AI模型留下的細微統計“痕跡”。但是,我們每開發出一個智能檢測器,就會有更智能的人工智能被訓練來隱藏這些痕跡。這是一場永無止境的貓鼠游戲,老鼠會根據貓的最后舉動重新設計自己。像“加水印”這樣的解決方案非常脆弱;不法分子只需使用沒有水印功能的模型即可。
當技術之爭注定失敗時,其后果便是社會層面的。我們正步入一個充滿根深蒂固的不信任的時代。歡迎來到“真實性危機”的世界,在這個時代,你必須假定一切都是假的,直到被證明是真的。這迫使我們所有人背負沉重的“現實稅”,導致集體倦怠和憤世嫉俗,最終使數字信任徹底瓦解。
唯一出路:回歸更具人性的互聯網
我們已經從最初在網絡上看到機器人時的那種怪異感覺,發展到理解它對我們未來的真正意義。“互聯網已死”理論不再是陰謀論,而是對當下正在發生的事情的預測。這不是遙遠的反烏托邦,而是已經到來的真實性危機。
那么,我們該怎么辦?出路必然是 “更具人性”。答案并非某種神奇的檢測工具,而是我們數字素養的全面提升。我們不能只問“這是真的嗎?”,而是“我為什么會看到這些?”健康的批判性思維才是我們最好的防御。
或許,真正互聯網的未來在于人們有意識地選擇花時間在規模較小、信任度高的“數字花園”,比如小眾論壇、私人群組,在這些地方,聲譽和真實互動至關重要。我們或許需要重新學習如何構建社群,確保我們確信屏幕另一端的人是真實的。
這就引出了最重要的問題:隨著我們的世界充斥著完美定制的合成內容,我們該如何在網上證明自己是“真人”?
常見問題解答
AI生成的內容如今在網絡上有多普及?它已經存在,并且正在呈指數級增長。我們今天就能看到各種復雜的AI評論、文章和產品評價。雖然并非所有用戶都完全處于模擬環境中,但這些工具的部署速度已經遠遠超出了我們的預期。趨勢顯而易見,而我們正處于增長曲線的陡峭階段。
AI回音室和信息繭房有什么區別?信息繭房是被動的:算法會向你推送你可能認同的真實用戶的內容。AI回音室則是主動的:它會從零開始為你生成全新的合成內容和虛假“人物”。這就好比“精選播放列表”和“為你量身創作的歌曲”之間的區別。
如何保護自己免受AI驅動的虛假信息侵害?答案在于轉變思維方式。成為一名有意識的信息消費者,并培養良好的數字素養。積極尋找規模較小但值得信賴的社群。直接支持人類創作者。最重要的是,保持健康的懷疑態度,對信息流中的所有內容都問問自己“我為什么會看到這些?”
監管能解決AI合成內容的問題嗎?監管可能會發揮作用(比如強制加水印),但這與言論自由之間存在微妙的平衡,而且技術發展總是遠超立法速度。法律雖然有所幫助,但并非萬能靈藥。核心防御始終在于擁有批判性思維和受過良好教育的用戶群體。
本文編譯自substack,原文作者ToxSec
https://substack.com/@toxsec/p-176417949
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.