
作者 | 陳振
來源 | 財經八卦(ID:caijingbagua)
![]()
引言:我們都在同一張臉上打補丁,但補丁會變成陷阱。
這個時代的荒誕,總是從一句“我就試試”開始。
最近,安徽一個女子閑來無事,想“測試”一下丈夫的反應。她用AI整出一張逼真的照片——家里多了個陌生的流浪漢,坐在客廳里,表情陰郁、光影真實,乍一看和真的一模一樣。她發給丈夫,本想看看他慌不慌。
![]()
結果——慌的不是丈夫,是整個派出所。男人直接報警求助,警車嗷嗷趕到家門口,最后發現所謂“流浪漢”,只存在于照片里。
![]()
這場從客廳到派出所的烏龍劇,一夜之間沖上視頻號熱搜。有人笑著評論“夫妻信任危機”,也有人冷靜指出:“你以為是玩笑,下次可能是詐騙。”
![]()
更離譜的是,這種事已經不是第一次。
有男人偽造“女兒被拐”的視頻博取流量,被拘;有騙子用“換臉+擬音”騙走公司幾百萬;有女孩發現自己“出演了”根本沒拍過的不雅視頻;甚至還有人做出“假火災現場”“假求救直播”,專門騙同情。
![]()
我們正活在一個真假難辨的時代。信息像洪水一樣涌來,但真相越來越貴。
![]()
一個按鈕,就能生成一場“災難”;一張圖,就能掀起一場恐慌。
沒人能預料,下一次,假象會砸到誰頭上。
![]()
造假成本一塊錢
信任代價是整個社會
這年頭,真相越來越貴,假貨越來越便宜。
過去造謠要成本,要人演戲、要剪視頻、要擺場景。現在不用了,只要上傳一張臉、點兩下按鈕,就能在幾十秒內生成“你從沒做過的事”。
![]()
更離譜的是,這種服務在一些平臺上打擦邊球,賣價低至一元錢。是的,一塊錢,比一瓶礦泉水還便宜。有平臺明碼標價:換臉:0.8元/秒;合成語音:1元/秒;“安裝包”:19.9元開通隨便玩。
![]()
于是,造假開始“平民化”。
明星被P上假視頻;老板被合成假語音;普通人也可能被拿去拼成“熱點素材”。有網友曬出教程:“輸入照片、選場景、換臉。”
![]()
所以,這門生意的本質是——“造假簡單化”。以前造謠需要專業,現在人人都能動手。
曾經以為AI是還沒成熟的科技玩笑,如今對方可能已經拿它做了生意。有人靠造虛假八卦號賺點擊,有人靠偽造受害視頻博同情,還有人更狠,直接拿換臉視頻敲詐勒索。
“新科技”興起了一堆暴發戶,可被害者的命運卻是無處申冤。
更夸張的是,假事件傳播速度遠超真相傳播速度。你澄清十次,人家轉發一次“真的假的”,就夠讓真相埋了。
![]()
一個小玩笑能驚動派出所,一場謠言能引爆一座城市。可最扎心的原因不過是——成本太低。
惡意的起點只是一塊錢,而被破壞的是別人半生的信任。這不是科技帶來的魔法,這是人心滑向的深淵。
當“真”成了奢侈品,謊言的成本幾乎為零。這才是比“用假流浪漢騙老公”更值得警惕的事。
![]()
![]()
技術異化的時代
從“工具人”到“被工具”
本來,這些AI技術的初衷很單純——讓人們更方便創作、更高效辦公、更輕松表達、更溫情表達愛。
![]()
但如今,它正在悄悄反噬創造它的人。
一開始,人們把它當玩具。有人拿來整蠱、娛樂、試探情感,這都還不算大事。
![]()
可當“玩笑”多了,就不再是玩笑。比如那位安徽女子,她或許只是想逗丈夫,卻沒意識到——在這個真假混亂的時代,一個假圖,可能比真相更快地觸發社會反應。
警察、鄰居、媒體,全都卷入其中,最后變成一場全網的笑話。
類似的事頻繁發生,今年六月,北京海淀查處了一起全國首例濫用AI技術生成的“假名人代言案”。
![]()
一家食品公司,把央視知名主持人李梓萌的視頻剪開重組,塞進自編口播:“我每天都吃這款深海魚油,頭暈手麻都好了。”
![]()
畫面清晰、語音自然、語氣、真誠,足以讓中老年觀眾信以為真。短短幾天,視頻播放量超過萬。
最終這家公司被查封,主持人方面也憤怒聲明:那不是本人說的。
故事聽起來像段子,但現實遠比段子狠。
因為那段視頻用的所謂“換臉”技術成本不到十元,甚至只要簡單地輸入人物照片、上傳幾秒原聲,就能生成一段以假亂真的“代言視頻”。
![]()
過去騙子要請演員、寫劇本、錄視頻;現在一個人在家敲幾下鍵盤,就能偽造一個你最信任的“官方形象”。
![]()
這便是異化的可怕之處:技術開始支配人的行為。
你想表達愛,它卻放大猜疑;你想博人一笑,它卻制造恐慌;你以為掌控它,結果自己成了它的素材庫。
有意思的是,人類的恐懼往往姍姍來遲。
![]()
之前,假照片第一次出現在朋友圈,人們驚嘆“太逼真了”;而現在,假語音第一次騙走存款,人們才開始后悔“太相信了”;當假視頻第一次毀掉一個女孩的名譽,人們才終于明白——我們真的需要防護。
技術沒有錯,但人有弱點。它放大了人性的好奇、貪婪、窺私與報復。
![]()
而當這種“低門檻魔法”落入無底線之手,現實就變成了一場大型“真·整蠱秀”。
![]()
造謠的速度
已經超過真相的反應力
在QQ爆火的年代,網絡謠言靠文字;而在自媒體泛濫的年代,網絡謠言靠影像。
有研究者做過實驗:同一條假消息,用AI生成圖片、視頻傳播,比其他口頭語言、文字謠言的轉發速度還要快。因為視頻太逼真了,甚至連新聞機構都一度信以為真。
![]()
人類大腦天生信任視覺,“看見”幾乎等于“相信”。于是,當影像開始說謊,信任也開始崩塌。
![]()
人們開始懷疑視頻證據,懷疑明星道歉,甚至懷疑身邊人。“這段錄音是真的嗎?”、“他真的說過這話嗎?”、“那真的是她本人拍的嗎?”這些原本屬于偵探小說的問題,已經進入日常對話。
而當懷疑成為常態,社會也變得疲憊。
![]()
值得一提的是,AI換臉的第一個明顯受害群體,是女性。被換臉的不雅視頻不再只是個別侵害,而是成長為一條灰色產業鏈:把某名博主、某個普通女性按粉絲量級分級定價,輸出“私人訂制”色情視頻,收會員費、賣下載權限、開打賞群。
![]()
受害者不僅失去名譽,還要承受電話騷擾、人肉騷擾、職業影響甚至生命風險。
這類“黃謠產業”有兩個惡劣特點:“可復制可規模化”——只要有一張清晰臉盤,可能生成無數版本;“按需定制”——買家可以提出臺詞、場景、甚至“私人劇情”。
當羞恥被商品化時,受害者的權利被系統性侵蝕:不是一次被侵犯,而是被無限次“再利用”。
一方面,我們害怕被騙,于是對任何“真相”都保持懷疑;另一方面,我們又太容易被刺激的影像打動,于是仍舊會被騙。
而當所有人都開始懷疑,真正的受害者反而更難發聲。
![]()
造謠者一句“開玩笑的”,輕飄飄;但被害人要花幾個月、甚至幾年去澄清、起訴、恢復。
科技帶來了速度,但也削弱了真相的耐心。
這就是最悲哀的地方——我們活在最智能的時代,卻變成最不敢信的時代。我們不再相信“真”,卻被“假”操控。
![]()
監管在追
公眾得學會“帶腦子”生活了
AI從來都不是原罪,濫用才是。
就像刀子本來是切菜的,現在卻有人拿它去“拍小眾引流視頻”;AI本來是幫人創作、剪片、修圖的,如今卻被用來騙人、造謠、炒流量。
![]()
其實,相關部門早就注意到這股“造假風”。
今年以來,“清朗專項行動”已經啟動,重點整治偽造人像、合成色情、虛假信息傳播等行為。各大平臺也推出了“AI生成內容識別系統”,并計劃強制標注AI作品來源。
![]()
但這些措施就像修水壩——上游的水越來越多,下游的人游得越來越累。
技術在瘋長,監管在補課,而用戶,還在“哈哈哈,好玩”地轉發。
法律其實已經給出了答案。《治安管理處罰法》規定,編造謊報警情可拘留罰款;刑法中的“編造、故意傳播虛假信息罪”可判三到七年。
![]()
可現實中,大多數人并非故意違法,只是沒意識到:“我以為是玩笑”,法律并不覺得好笑。歸根結底,最有效的防線,是人自己。
![]()
——看到“驚天大瓜”,先別信;
——遇到“哭著求助”的AI語音,先核實;
——想“用AI逗一下對象”,先想想值不值。
技術越聰明,人就越要有腦子。
最重要的是,不要做那個“傳播起點”的人。別為了圖一樂、賺點贊、秀智商,就把假消息傳下去。
一次點擊,也許就是一場恐慌的導火線。
![]()
我們正在進入一個“真假共生”的時代。
![]()
技術可以造出最完美的假象,也可以修復最真實的真相。關鍵不在于技術,而在于人。
當妻子用生成圖“測試”丈夫,當詐騙犯用換臉騙走幾百萬,當黃謠視頻毀掉無辜者的人生——這一切背后都在說明:我們太容易相信了,也太容易利用信任去試探別人。
AI并不可怕,可怕的是人心的浮躁。
![]()
當我們開始拿謊言當玩笑、拿虛構當手段、拿技術當掩護,這個時代最昂貴的東西,不是算力,而是信任。
![]()
或許未來的生活,會越來越“真假難辨”。
那就更需要我們在點“生成”的時候,想一想:——這張臉,這段話,這個視頻,真的該存在嗎?
世界可以被偽造,但人,得保持清醒。技術的盡頭,不是智能,而是良知。
對此,您怎么看?歡迎在評論區留言討論,發表您的意見或者看法,謝謝。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.