
![]()
如果有一天,你突然在網上聽到自己的聲音,卻完全不記得曾經親口說過這些話,是否會陷入莊周夢蝶、盜夢空間般的恍惚?近日,《中國新聞出版廣電報》刊文指出:如今不少短視頻平臺上流傳著各類仿冒視頻,克隆明星、學者等公眾人物的聲音,散播真假難辨的內容。
過去,聲音模仿技術依賴個人技藝,旁聽者能從細微處分辨真假,如同皮影投射,“京中有善口技者”曾是聲音模仿技藝的最高贊譽。當下,AI合成語音技術卻能將聲調、語速、氣口,甚至情緒起伏完全復制、幾可亂真。
當獨特的聲音,淪為可買賣、可篡改的數字符號,聲音和人類主體之間的天然綁定關系被解除:你沒說過的內容,AI能替你說;你從未身臨的場景,AI替你造——嘈雜車站、雷電雨聲,甚至是求救哽咽隨意生成。聲音則變成可任意復制、拼貼和調色的“數字皮膚”。
聽覺,從來不是一條單薄的感官通道。“聲振林木,響遏行云”,人不僅是用耳朵這一個器官在聽,而是用整個身體在感知。聲音景觀以固有的包圍性與環繞性,引發身體感官共振。因而,AI深度偽造技術制造的不只是“聲音”,而是一整套沉浸式聽覺場,讓人在生理層面誤以為“他就在那兒”,并放下警惕。非法的AI聲音克隆,因其無所不在的欺騙性,甚至比視覺偽造更隱秘。
更棘手的是,AI克隆聲音的技術門檻極低,易形成產業鏈條。幾分鐘素材、幾行代碼,一個人的聲紋信息便可復制。從專業團隊到素人玩家,都能參與到此種“半真半假”的侵權行為中。根據《中華人民共和國民法典》第一千零二十三條第二款規定:對自然人聲音的保護,參照適用肖像權保護的有關規定。而技術賦權下,取證難、認定難,可能讓法律條例在執行時面臨前所未有的挑戰,AI正將“聲音被偷”推向一個監管難以完全觸及的灰色地帶。
縱容AI克隆聲音,不僅傷害歌手、配音從業者、學者等公眾人物,更會引發深層的社會問題。如今網絡平臺上流傳著各類仿冒視頻,有的逗人一笑僅為娛樂,有的則誘導消費、投資,甚至涉及極端觀點、導向欺詐違法行為,分辨力弱的網民一聽便信、關心則亂,幾秒鐘就被“熟悉的聲音”帶至陷阱之中。
“非黑即白”的判斷標準不可取,但更深的隱患在于我們正失去對聲音的信任。在新聞配音、數字遺產、無障礙閱讀、影視制作等領域,AI的諸多積極價值一目了然。問題不在技術本身,而在其使用導向與倫理邊界。若要避免聲音淪為可以隨意捏造、操控、變賣的“廉價資源”,須對不同應用場景區分,對是否獲得授權劃紅線,對濫用行為進行法律約束。
治理AI克隆聲音亂象,監管須走在技術之前,而非被動滯后“補漏”。未來,持續完善符合人工智能發展需求的治理體系、提升相關治理能力,保持政策靈活性。各類平臺理當承擔主體責任,建好“技術護欄”,讓聲音克隆可查、可控、可追溯。內容傳播平臺要把好“入口”,提供買賣服務的平臺也應對克隆行為嚴格管理。只有發布者自律、平臺盡責、監管到位,形成治理合力,才能讓技術在制度的邊界內平穩運行。
樹葉和泉水的聲音究竟意味著什么?它從來不只是物理現象,而是構建世界、承載人性的獨特通道。從授權制度、技術標識到法律規制,固然都至關重要,但更重要的是廣泛公眾意識的提升:認識到聲音是人的延伸、情感的觸角,而非市場的玩物。
來源 | 人民論壇網
責任編輯 | 常嫦
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.