![]()
既能“搖搖頭”,也能“眨眨眼”,5萬多條合成動態人臉視頻被查獲。
- 據央視新聞3月16日報道:山東青島警方前不久破獲利用AI技術合成、帶有“搖搖頭”“眨眨眼”的動態人臉視頻5萬多條,這些動態視頻能騙過人臉檢驗系統。在電詐團伙手里,他們就可以利用這些AI換臉視頻去做虛假實名認證,進而詐騙。
很多人曾以為,人臉識別需配合動作驗證便足夠安全,但犯罪分子的手段已悄然升級。只需竊取一張個人照片,借助AI技術就能生成可按指令完成點頭、搖頭、眨眼的動態視頻。這些視頻流入黑灰產團伙手中,可輕松注冊需活體檢測的賬號,或繞過平臺身份驗證,為電信詐騙、洗錢等犯罪活動鋪路,讓人細思極恐:我們的臉可能在不知情的情況下,被騙子用來“開戶”作案。
這一問題的核心,不僅是黑產猖獗,更在于技術應用失衡與漏洞。AI換臉技術本身無罪,能為影視制作、在線教育等領域提供便利,但隱患集中在三方面:一是合成技術門檻驟降,普通人借助開源軟件和教程,就能制作以假亂真的動態視頻;二是防護技術升級滯后,多數平臺的人臉識別僅停留在“基礎動作檢測”,無法辨別“動的是不是真人”;三是個人信息大規模泄露,求職簡歷、快遞面單、App過度授權等,為AI換臉提供了充足“原材料”。
查獲5萬條假視頻固然大快人心,但治理AI詐騙不能止于“查獲”,更要聚焦“預防”,修補技術與管理漏洞,否則很快會有新的升級版犯罪手段出現。這需要平臺、監管、個人三方形成合力,筑牢安全防線。
平臺要升級“防護眼睛”,扛起第一道防線責任。銀行、社交平臺、政務App等人臉識別應用方,不能只滿足于簡單動作檢測,需升級多維度活體檢測技術,通過識別人瞳反光、面部微表情、皮膚紋理,或要求用戶朗讀隨機數字驗證口型與語音匹配,讓機器能區分真實人臉與偽造視頻。
監管要織密“法網”,提高技術濫用成本。有關部門需加快完善AI技術應用規范,明確法律紅線,全鏈條打擊非法竊取個人信息、提供AI換臉工具、販賣虛假視頻等行為,同時壓實平臺責任,倒逼其主動升級安全防護措施。
普通人要多留“心眼”,守護好自己的“臉”。盡量不在來歷不明的App、網站上傳高清正面照或授權人臉信息,尤其警惕“測面相”“AI換臉玩圖”等小程序;及時關閉手機App不必要的人臉識別和相機權限;網絡轉賬時,即便對方發起視頻通話,也需通過讓其做隨機動作、詢問私密問題等方式交叉驗證,防范AI換臉騙局。
AI時代,人臉已成為打開個人信息寶庫的“鑰匙”。面對AI詐騙威脅,我們既要對黑產堅決說“不”,更要在日常防護中保持警惕。唯有技術向善、監管到位、個人警惕形成合力,才能在這場“人臉攻防戰”中守住安全底線。
5萬多條合成動態人臉視頻被查,面對“眨眨眼”不能只是“搖搖頭”,如何修補“技術漏洞”才是關鍵!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.