近日,字節跳動上線Seedance 2.0視頻生成模型,進行內測,引發行業熱議。
該模型支持文字、圖片、視頻、音頻等各類素材輸入生成視頻,在自運鏡和分運鏡、全方位多模態思考、音畫同步生成、多鏡頭敘事能力等幾個關鍵能力上實現突破。
先看看效果:

有網友認為,看了Seedance 2.0的生成視頻效果后,很快普通人就分不清AI生成視頻了。
![]()
有網友直言,眼已瞎,AI視頻已進入分辨不出的時代。
《黑神話悟空》制作人馮驥也發文對Seedance 2.0大加贊賞:“昨天試了試剛上線即夢的Seedance 2.0。它在使用手冊標題的最后,寫著Kill the game!(殺死比賽)。這個評價,相當客觀。AIGC的童年時代,結束了。”
他用領先、全能、低門檻、產能爆炸、視頻全民化等詞描述自己的使用感受。
![]()
他同時也表達了對假視頻泛濫與信任危機的擔憂。因為逼真的假視頻將變得毫無門檻,而現有的知識產權與審查體系會面臨空前沖擊。
他鄭重建議:請大家盡快提醒父母與不熟悉AI的親友,未來一切缺乏官方權威渠道背書的視頻內容(尤其是包含個人形象與聲音的)都可能是偽造的。請務必通過多渠道交叉確認,避免上當。
除了對假視頻的擔心,隱私問題也浮出水面。
![]()
知名科技博主Tim(本名潘天鴻)在評測過程中發現,僅提供了自己的照片、未提供聲音或視頻等素材的前提下,Seedance2.0能夠生成帶有Tim個人音色的聲音。
![]()
更讓Tim感到驚訝的是,他只上傳了辦公樓的一面,但視頻卻能生成與現實幾乎一樣的樓的另一面。
“這不恐怖嗎?它知道我背后的東西是什么。”
Tim認為,Seedance 2.0大量訓練了他公司的視頻,而他沒有被聯系過授權。
Tim又用何同學的照片生成視頻,但這次的聲音不是何同學,還是Tim的聲音。
Tim認為如果一個人的數據全部進入了AI數據集,它能夠100%的模擬出這個人任何的形態和聲音,“這樣的內容,你的家人能分得出真假嗎?”
隨著真假視頻、隱私問題的討論,即夢方面今天緊急暫停了真人素材作為主體參考。
![]()
即夢的運營人員表示:“即夢創作者們大家好,Seedance 2.0在內測期間收獲了遠超預期的關注,感謝大家的使用與反饋。為了保障創作環境的健康可持續,我們正在針對反饋進行緊急優化,目前暫不支持輸入真人素材作為主體參考。我們深知創意的邊界是尊重。產品調整期間給各位帶來的不便,敬請諒解,期待以更完善的面貌與大家正式見面。”
什么叫真人素材參考?看即夢App這張使用圖就明白了。
![]()
就是在即夢生成視頻操作中,你可以上傳一張真人照片作為生成時的參考,其實就是真人作為視頻里的主體。
而現在即夢不讓上傳真人照片用來生成視頻了。
這次事件暴露出AI視頻幾大問題:
真假難辨導致的信任危機。普通人肉眼無法區分AI生成與實拍,造謠、詐騙、仿冒親友、偽造輿論視頻的成本趨近于零,現有法律、審核、溯源體系可能跟不上。
視覺證據不再天然可信,人類進入 “后真相視頻時代”。
隱私與數據授權,成為灰色地帶。Tim的實測暴露了最尖銳的問題,用戶未授權、未知情,數據卻已被學習。
這觸及了全球AIGC最敏感的紅線,模型到底用了誰的數據?有沒有授權?
技術的權衡發展問題。好在這次僅是內測,范圍較小,通過內測反映出問題,可控可治。但也不能一刀切,技術領先不易,應該保護,也應該在安全的渠道內發展。
不是關閉功能,是先把 “最危險口子” 堵上,先把最容易用于偽造、詐騙、侵權的功能關掉,保留技術探索空間。
AI時代的全民信息素養問題。馮驥的預警非常重要,必須盡快普及AI知識,提升公眾對虛假信息的辨別能力,建立“多渠道交叉驗證”等新的安全習慣。
Seedance 2.0內測爆火與緊急暫停真人功能,是AIGC從炫技階段正式進入安全與合規并重階段的標志性事件。
最后我想到的是,那些每天出鏡的視頻博主們,是不是最容易被Deepfake(深度偽造)?有沒有打一激靈?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.