近日在網間流傳一則帖子,內容相當搞笑,畫面似乎是某地街頭,一名乞丐在路邊擺放大型易拉包乞討,聲稱要為一名“8歲尿毒癥女孩”籌集30萬元換腎救命錢。故事本身并不新鮮,真正讓這起事件在網絡爆紅的,是那位病危女孩照片右下角赫然印著的六個大字:豆包AI生成
![]()
這位乞丐顯然使用了字節跳動旗下的AI工具豆包來生成這張病床上的可憐女孩照片,卻犯了一個連小學生都不該犯的錯誤:沒把AI水印刪掉。事件經由網友發文揭露后迅速傳開,引發熱烈討論。有網友調侃這是“AI賦能”的最佳范例,證明AI真的可以幫人賺錢;有人嘲諷“詐騙笨到不會把水印給P掉”;也有人諷刺表示“至少他愿意跪著掙錢了”。
![]()
更有趣的是,有較真的網友質疑新聞的真實性:“那張拍攝乞丐行騙現場的照片,會不會也是AI生成的?”經過AI圖片檢測工具(如Sightengine)分析,該張街頭照片很大概率是真實,但網站也聲明結果可能不準確,需要自行判斷。
![]()
除了這個案例以外,國內也曾有法院審理案件時,原告女兒提交的水電表照片竟也帶有“豆包AI生成”水印,遭法官識破偽造證據,當事人膽子之大相當夸張。
![]()
豆包AI提供網頁版、桌面版應用以及iOS和Android手機App,使用門檻極低,而且個人用戶完全免費(老實說挺好用的),這也解釋了為何連街頭乞丐都能輕易上手。
如何辨別AI生成假照片?
面對鋪天蓋地的各種AI詐騙內容,一般可以通過以下方法提高警惕:
照片檢查技巧手指數量:AI常畫錯手指數量或形狀,這是最常見的破綻(但各家AI生成算法在進化,這類破綻越來越少); 背景異常:光線不自然、邊緣模糊或扭曲; 文字扭曲:圖片中的文字常出現亂碼或無法辨識; 對稱性問題:耳朵、眼睛等對稱特征不一致; 皮膚質感:過度光滑或不自然的紋理。
![]()
視頻通話檢驗要求側面轉頭:AI換臉側面角度易破綻特定動作測試:要求對方向左看、向右看對“暗號”:詢問只有真才知道的個人問題觀察延遲:AI生成可能有明顯延遲或卡頓嘴型同步檢查:偽造視頻常出現嘴型與聲音不同步各種檢測工具方法推薦Sightengine、HiveModeration、Illuminarty等AI圖片檢測工具
我們該警惕什么?
這起“乞丐忘刪AI水印”事件,乍看之下令人發笑,細思卻令人背脊發涼。笑點在于:一個試圖用最新科技行騙的人,竟然連最基本的水印處理都不會,這種科技素養與犯罪智商的落差,簡直是黑色幽默的最佳范例。這也側面證明了AI工具的普及程度:連街頭乞丐都能輕易取得,門檻之低前所未有。
但令人擔憂的是:今天這個乞丐因為“太笨”被抓包,明天就會有更聰明的詐騙集團把水印處理得干干凈凈。AI詐騙早已不是笑話,而是嚴重的社會問題。“眼見為憑”這個千年來的基本常識,正在AI時代被徹底顛覆。一張照片、一段視頻、一通視頻電話,都不再是可信的證據。這不僅可能造成了巨大的經濟損失,更在侵蝕社會的信任基礎,當真實的緊急求助出現時,人們可能因為害怕被騙而選擇冷漠以對。好在,國內《人工智能生成合成內容標識辦法》已于2025年9月1日施行,給AI生成內容給出了規范和約束。
AI技術是一把雙面刃。它讓創作變得更容易,也讓詐騙變得更容易;它賦能了善意的創作者,也賦能了惡意的騙子。在這場AI生成技術與檢測技術的軍備競賽中,普通人能做的,唯有保持警覺、提高數位素養,并在面對任何“有圖有真相”的內容時,多問一句:“這是真的嗎?”
畢竟,在這個時代,連街頭乞丐都用上AI了,還有什么是不可能假的?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.