在今天的網絡世界里,你以為最泛濫的是流量,其實最不值錢的是你的臉。
那些原本躺在相冊、朋友圈、畢業(yè)照里的笑臉,正在被一層一層變成商品。
看似是玩技術,實際上,是一條完整的黑灰產業(yè)鏈。
深度偽造,聽起來很高大上,其實本質就是一場更狠更逼真的P圖。
以前PS只能改一張照片,現在的AI能把一整段視頻里的臉、聲音、動作統(tǒng)統(tǒng)換掉。
最常見的,是AI換臉。
![]()
你拿一段現成的色情視頻當底片,再把受害人的臉貼上去。
生成式對抗網絡會幫你把皮膚、表情、角度都對齊,讓人肉眼看上去幾乎分不出真假。
這在以前,至少要50張不同角度、高清的人臉照片,才能訓練出一個還看得過去的視頻。
但這幾年技術一路狂飆,現在只需要20張左右的照片,就能做出相當逼真、甚至能拿去牟利的換臉視頻。
你刷過的短視頻、發(fā)過的自拍、開會打開過的攝像頭,統(tǒng)通有可能被人悄悄截走。
然后變成別人電腦里的訓練材料。
如果把深度偽造黑產拆開看,你會發(fā)現它比你想象的簡單。
第一步,收集受害人照片。
班級群畢業(yè)照、公司合照、朋友圈公開照片、社交平臺的日常自拍,都是免費素材。
對于盯上女明星、女網紅的人來說,更方便,高清大圖一抓一大把。
深度偽造的模型,從零開始訓練很難,新手自己訓練,往往會出現貼臉不自然、邊緣抖動、嚴重掉幀等問題,一看就假。
所以,黑灰產會去買現成的預訓練模型。
![]()
現在,很多模型在各種社區(qū)、論壇、私密群、甚至明面上的網站里,都可以幾元幾十元買到。
這部分也很成熟,有人專門提供底片資源庫,按類型、動作、時長分類。
AI換臉軟件、預訓練模型、底片視頻、受害人照片,四樣東西拼在一起,一臺電腦、一張顯卡,幾分鐘就能合成一部新的視頻。
有人直接賣成片。
有人賣教程、賣模型。
有人打著短視頻培訓、流量密碼、副業(yè)變現的旗號,招學員,收會員費。
你看到的那句988元包教會,背后往往是一整套商業(yè)模式。
而真正被拿來當消耗品的,是一個個活生生的人。
Telegram上,大量群組公開標榜能做深度偽造色情圖像和視頻。
付費頻道里,男性訂閱者只要交錢、上傳照片,就能得到一份量身定制的偽造色情內容。
名單里,涉及上百所中小學和國際學校,受害者多達幾十萬。
很多甚至只是十幾歲的小女孩。
![]()
而部分加害者,同樣是十幾歲的未成年人。
技術變成了他們發(fā)泄惡意、試探法律底線的玩具。
你以為離自己很遠,實際上只差一張照片。
它不只是流量生意,更是對人的多重傷害。
在法律意義上,別人未經許可用你的臉,特別是用在色情、低俗、誹謗場景中,已經嚴重侵犯了你的肖像權、名譽權、隱私權。
很多受害者說,明知道視頻是假的,但那張臉是自己的,看到那一刻,整個人是崩潰的。
黑灰產做完視頻,不一定馬上公開。
他們可能先把視頻和截屏發(fā)給當事人,威脅說不想家人、同事看到,就拿錢來贖。
別忘了,深度偽造不只會換臉,還會偽造聲音。
有騙子已經開始用AI模仿親屬、領導的聲音和臉,遠程視頻里一頓催促,讓你轉賬、借錢。
當你連畫面都不敢信的時候,普通人的安全感會急劇下降。
那咱們該怎么辦?先給你幾招,至少能幫你過濾掉一大半粗糙的深度偽造。
看眼睛。
正常人說話、傾聽時,眨眼頻率有規(guī)律,眼球運動自然。
很多深度偽造要么眨眼太少,要么閉眼時眼皮動作怪異,甚至出現眼球消失的瞬間。
看嘴巴。
對著嘴型聽聲音。
AI合成視頻里,嘴唇開合與發(fā)音往往有半拍差別,尤其在快說話、爆破音、大笑的時候,細看會覺得別扭。
看光影和邊緣。
注意臉和脖子、耳朵、頭發(fā)交界的地方。
如果光線忽明忽暗、邊緣模糊、發(fā)際線像糊上去的,極可能是換臉。
看動作。
真實的人做動作,會帶著細小的肌肉抖動和慣性。
深度偽造經常出現頭動了、身體跟不上,或者脖子扭動時出現詭異的拉伸。
看來源。
![]()
來路不明的視頻,尤其是從陌生人發(fā)來的私聊、非正規(guī)網站下載的,天然要多打一層問號。
如果內容又極度獵奇、極端、情緒煽動,那就更要謹慎。
當然這些都不是百分之百的法寶。
因為技術在發(fā)展,偽造也在升級。
但只要你有這根弦,遇到可疑內容時肯花十秒鐘檢查一下,至少不容易被表面震撼帶著走。
你能做的,比想象中多。
先從管住自己的照片開始。
不是說完全不要發(fā)照片,而是要有邊界。
盡量避免在公開賬號發(fā)大量高清正臉照,不要把家庭住址、工作單位、孩子學校這些信息和照片放在一起曬。
社交軟件里,關掉允許陌生人下載原圖的選項。
能只對好友可見的,就別設成公開。
看到奇怪的鏈接或者聲稱免費幫你生成各種頭像、美照的網站,少點,尤其別上傳真實正臉照。
如果發(fā)現自己可能被深度偽造了,千萬不要一個人憋著。
盡快保留證據,截圖、錄像,記錄對方賬號、鏈接和時間。
現在很多地方的警方已經對數字性犯罪、深度偽造侵權有專門經驗,越早介入越好。
同時,也可以咨詢律師,看是否提起民事訴訟,要求刪除、賠償、公開道歉。
另外,關注一下主流平臺推出的安全功能。
比如一些平臺開始要求創(chuàng)作者主動勾選AI生成聲明。
有的企業(yè)也推出了檢測深度偽造的工具,通過分析視頻幀率、語音頻譜、像素特征,來給出風險提示。
這些工具離全民普及還有路要走,但你至少要知道,它們是在站在你這一邊的那一撥技術。
深度偽造是一把雙刃劍。
它可以用來救人,比如幫演員完成高難度特效,為殘障人士生成自然的語音和表情。
也可以被用來傷人,比如把一個普通女孩拉進幾元錢的色情視頻訂單里。
真正決定這把刀指向哪一邊的,是人,是法律,是平臺規(guī)則,是每一個選擇轉發(fā)或舉報的手指。
當色情視頻被惡意炮制,預訓練模型被幾元錢賤賣,AI換臉變成一條躺著賺錢的灰色賽道時,看客的一句無所謂,其實也是在推這條黑產往前走一步。
但反過來,每一次拒絕圍觀、每一次認真舉報、每一次給身邊人科普,也是往剎車上踩了一腳。
別把自己放在絕對安全的位置上,以為事不關己。
因為在深度偽造的世界里,每一張臉都可能是下一批素材,包括你我。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.