胡歌
騙了反詐中心的領導?
11月23日
上海市反電信網絡詐騙中心
發布了一條令人忍俊不禁的視頻
視頻中
反詐中心的領導
接到了“胡歌”打來的視頻通話
于是跋山涉水找到胡歌本尊
卻發現……
網友:笑不活了
很有創意,警惕AI詐騙
![]()
![]()
![]()
![]()
![]()
![]()
視頻看著好笑
但如果自己碰上
恐怕就笑不出來了
那么,讓領導不慎中招的
AI詐騙是什么?
當前,AI技術正以驚人的速度融入我們的日常生活,帶來前所未有的便捷與高效。然而,技術的雙刃劍效應也逐漸顯現,不法分子利用AI的換臉、變聲、精準信息分析等能力,精心設計詐騙陷阱,讓“眼見為實”“耳聽為真”的傳統判斷標準面臨挑戰。務必保持警惕,守護好個人財產與信息安全。
案例速遞
某天,老李在上班時,手機突然收到一條陌生短信,附帶一張模糊的老照片。照片里是個穿著舊棉襖的小女孩,老李一眼就認出,那是童年時期的姑姑。他心里正疑惑,為何許久不聯系的姑姑會突然聯系他,緊接著就接到一個電話,電話那頭傳來姑姑蒼老虛弱的聲音,要求支付贖金并反復提醒不能報警。老李來不及思考,就直接把錢打過去了。
老李不知道的是,這是一個詐騙團伙,他們利用AI修復技術,把從網上搜集來的一些老照片修復、加工,偽造成受害者失聯親人的童年照,再用AI語音合成技術,模擬出老年人的聲音,編造綁架勒索的謊言。
![]()
詐騙套路
聲音合成
騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。
AI換臉
騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人群。在視頻通話中利用AI換臉,騙取信任,從而實施詐騙。
轉發語音
騙子在盜取社交賬號后,便向其好友“借錢”,為取得對方的信任,他們會轉發之前的語音,進而騙取錢款。
AI程序篩選受害人
騙子利用AI來分析公眾發布在網上的各類信息,根據所要實施的騙術對人群進行篩選,在短時間內便可生產出定制化的詐騙腳本,從而實施精準詐騙。
AI技術能讓違法犯罪分子
輕松“換臉變聲”
請注意:
“眼見”未必為實
教你如何辨別AI詐騙
動作驗證法
當視頻中對方(尤其是涉及轉賬、借錢等敏感要求時)顯得有點“怪”,別急著答應。請對方做一個連貫的轉頭動作,或者用手掌完全遮住臉再快速移開。目前的AI技術在模擬這些復雜的面部遮擋和光影變化時,容易出現卡頓、模糊或扭曲。
聲音細節辨真偽
注意聽語音細節。AI生成的語音有時會缺乏自然的呼吸停頓、情感起伏,或者帶有輕微的機械感、背景雜音異常。如果對方聲音聽起來“不像平常”,務必提高警惕。
多渠道核實身份
無論視頻、語音多么逼真,涉及金錢交易或敏感信息時,務必通過其它可靠途徑二次確認。比如,掛斷后直接撥打對方常用且你熟悉的電話號碼(不要回撥可疑來電號碼),或者通過你們共同認識的第三人進行側面核實。
不向陌生賬戶轉賬
不被 “高收益”“急用錢” 等說辭迷惑
守好自身“錢袋子”
↘來源:青春上海

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.