文|長三角momo
豆包成功拿下了春晚,在這個舉國同慶的時刻,AI除了要下載量和用戶之外,能不能在防詐這一塊,做點好事?畢竟,現在AI已經讓虛擬和現實,傻傻分不清楚,每個人都陷入了要識別豆老師的窘境。
最早聽到大頭針,是他翻唱孟庭葦的《你看你看月亮的臉》,把本來那種含蓄的、小女生傷感的告別,生生變成了吼出所有委屈的宣泄。 除了這首,他翻唱的《很愛很愛你》《淚海》《星語心愿》等等老歌,也被各平臺的算法瘋狂推薦。 我就很好奇這么強的一位歌手怎么就突然出來了,搜了一下才知道,這是酷狗用AI技術打造的虛擬人。這個我真沒聽出來,問了一圈身邊的朋友,很少有人知道大頭針是個AI。 這讓我想起來最近很流行的一個梗:"看起來又像豆老師的作品。" 這個說法,最早是網友對豆包等AI工具一些早期、略顯生硬內容的戲稱。但現在,它有了新的指代——一段特別工整的文案,一張有點"完美"但怪怪的圖,或者一個反常識但乍看分不出真假的視頻。 這個梗的流行,說明我們的眼睛和耳朵,在當前時代,需要訓練出一種新的能力:分辨哪些內容可能來自機器。 但很遺憾的是,隨著AI的進步,碳基和硅基內容"假假分不清楚"的時代,越來越近了。 不久前,小鵬就遭遇了一場"AI偽造"風波。當時,網絡上流傳出一段據稱是小鵬參加車展的不雅視頻,引發輿情。但后來根據警情通報,這是某人利用AI技術生成的虛假視頻,這位被行政拘留了10天。 那段視頻我此前也看到了,當時理性告訴我這肯定是假的,但眼睛是真看不出來。 不僅是小鵬一家企業被"豆老師的作品"所困擾,我梳理了下,AI仿真內容目前至少造成了四大危害。 一、最直接的危害是網絡詐騙。 比如,湖北黃石的三位老人,他們接到"孫子"帶著哭腔的求助電話,毫不懷疑地交出了數萬元現金,因為電話那頭的聲音與孫兒一模一樣。這種AI擬聲騙局,成功率與危害性遠非傳統騙術可比。 二、假冒侵權泛濫,公眾人物成為重災區。 換臉和聲音克隆技術,讓盜用身份變得輕而易舉,奧運冠軍全紅嬋、孫穎莎的聲音曾被克隆用于直播帶貨,演員溫崢嶸也公開過被假冒直播間AI換臉的遭遇。 一位名叫"小驢圓圓"的網紅鼓手告訴我,她此前最多的維權是別人錄播后盜播,而現在,她的打鼓形象,被AI制作到好多歌手、偶像題材的短劇里。而后者維權起來更復雜,成本更高。 三、"虛假種草"誤導消費決策。 就在杭州,今年判了浙江首例涉AI技術商業化應用案,認定AI寫作工具專門生成虛假"種草"筆記,是違法的。這些精心編織的"用戶體驗"和"親測推薦",系統性誤導消費者,也令誠信商家的努力付諸東流。鄭州也有類似案件,商家利用AI生成大量虛假用戶好評進行刷單,被判為不正當競爭。 四、批量造謠已形成黑色產業鏈。 前幾年有個很著名的"江西幫",就是利用AI工具批量生產虛假內容賺流量費,我以為基本都被打掉了。結果本周又看到一個消息,煙臺公安發現有個團伙抓取"小米""華為""理想"等關鍵詞,借助AI批量生產低質、雷同的"網絡垃圾",其目的僅僅是為了賺取平臺流量帶來的收益,相關賬號8000余個。 AI每天可以生產數千條不實信息,從編造企業謠言導致門店營業額暴跌,到生成虛假災情視頻引發社會恐慌。這種工業化、規模化的造謠能力,正以極低成本污染整個信息環境,侵蝕社會信任的基石,造成的危害更大。 當虛假內容的生產變得如此高效和廉價,我們賴以判斷世界真實性的基礎——所見、所聞乃至他人的經驗分享——都開始動搖,那么,怎樣才能治理? 我大概能想到以下五個方向。 一、AI工具需要承擔更多責任。 AI生成內容的強制標識制度,是實現"隔離"的第一步。現在也有一些初步的成效,比如百度"文心一言"、抖音AI特效等,均在生成內容時自動添加水印或標簽,標明其AI身份。 二,魔法打敗魔法,AI檢測技術盡快成型。 國內外一些科技公司已經在研發AI生成內容檢測工具了。目前,一些檢測工具已經可以通過分析圖像的像素級特征、文本的邏輯連貫性等,有效識別出大部分AI生成內容,為人工審核提供關鍵輔助。 三、平臺應該開放公眾參與的糾錯機制。 針對AI的"幻覺"與錯誤,需建立更開放的反饋渠道。更好的機制應超越簡單的"點贊/踩",設立專門的錯誤上報通道,并輔以專家團隊對復雜問題復核。這能將用戶發現變為優化模型的集體力量。 四、對高風險內容實施分級管理。 平臺需對危害程度不同的內容采取差異化措施。對于仿冒公眾人物、偽造權威新聞等高風險內容,是不是可以采取強提示、限流甚至禁止傳播等嚴格管理措施。比如,對AI生成的"名人演講"視頻,添加更加醒目的警示。 五、探索"可驗證的真實"技術路徑。 終極方案是為真實內容鑄造"技術身份證"。目前知識產權領域已經可以從拍攝設備端開始,為原創內容綁定不可篡改的數字憑證(如加密數字水印、區塊鏈存證)。今后,重要的新聞、證據、官方信息等發布,是不是都可以采用這種技術防火墻? 總之,當我們下次再調侃某個內容"看起來又像豆老師的作品"時,這份警覺心或許不應該僅僅停留在玩笑層面。AI生成的東西,如何和現實世界進行一個隔離,是我們必須要解決掉的問題,否則人類必然會迎來一個倫理崩塌的時代。 治理AI虛假內容,就是為了捍衛人類社會中信任、真實與尊嚴這些更寶貴的基石。 畢竟,最終決定未來是走向繁榮還是崩塌的,不是AI的能力,而是我們的選擇。 豆包今年成功拿下了春晚,如何防詐是不是才應該是主題?科技向善,才是科技的正確方向,在各種AI作惡的雜音之下,豆包是不是應該在春節這個時間段,提供一些正向的思路,比如幫助留守老人辨別是非,避免被騙,提高平臺對AI內容的識別率等等。 AI可以融入我們的社會,但是不能篡改我們的真實。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.