![]()
Netflix剛開源了一個叫VOID的AI模型。它不做視頻生成,做的是視頻抹除——選中畫面里的任何人或物體,一鍵消失,痕跡難尋。測試過的人反饋:抹除后的畫面比原片還干凈。
這和你手機里的"魔法橡皮擦"完全不是一回事。Pixel的Magic Eraser處理的是靜態照片,VOID處理的是動態視頻,要搞定光影變化、遮擋關系、背景填充,還要讓抹除后的畫面在24幀里保持連貫。
更關鍵的是,它開源了。GitHub倉庫已公開,任何人都能下載權重文件。
VOID到底在做什么
VOID全稱Video Object and Interaction Deletion,直譯是"視頻物體與交互抹除"。它的輸入是一段視頻和你想抹除的物體掩碼,輸出是抹除后的完整視頻。
技術團隊放出的演示視頻里,一段戶外采訪場景中,主持人身后的路人被逐幀抹除,畫面自動補全為連續的街道背景。另一段室內鏡頭中,桌上的咖啡杯被移除,桌面紋理和手部動作的自然銜接讓人看不出破綻。
Netflix研究團隊在論文里寫得很直接:「我們的目標不是生成新內容,而是讓現有內容按需求被修改。」
這句話的潛臺詞是:Sora們還在爭論"AI視頻算不算創作",VOID已經跳到了下一個階段——AI對現實的編輯權。
技術架構上,VOID采用了雙分支設計。一個分支負責理解視頻的時空一致性,確保抹除后的背景在幀與幀之間不閃爍、不漂移;另一個分支專門處理物體與環境的交互關系,比如人走過水面時的倒影、手拿起杯子時的陰影變化。
兩個分支的輸出在潛空間里融合,再解碼成最終視頻。這種設計讓它在DAVIS和YouTube-VOS兩個視頻分割基準測試里,抹除質量評分比前代方法高出23%。
為什么Netflix要做這個
流媒體平臺的內容庫里有大量歷史素材需要翻新。老劇重制、版權音樂替換、意外入鏡的商標清除——這些過去靠人工逐幀修補的工作,成本按分鐘計算。
VOID的論文里舉了個具體場景:某部紀錄片拍攝時,背景里出現了未授權的品牌logo。傳統流程需要特效團隊逐幀跟蹤、roto摳像、背景重建,兩周起步。用VOID的話,標注logo區域,幾小時出片。
Netflix 2023年的內容支出是130億美元。哪怕只有1%的后期成本能被這類工具壓縮,也是1.3億美元。
但技術團隊顯然想得更遠。論文的最后一部分討論了"倫理考量",提到「該技術可能被用于制造誤導性內容」。他們同時強調,開源是為了讓研究社區共同開發檢測方法。
這個邏輯有點微妙:我們 release 了一個可能造假的工具,然后邀請大家一起研究怎么抓造假。
開源背后的博弈
VOID的代碼和預訓練模型權重已經掛在Netflix Research的GitHub頁面,采用BSD-3-Clause許可證。這意味著商業使用、修改、分發都允許,只要保留版權聲明。
對比OpenAI對Sora的封閉態度,Netflix的選擇顯得激進。但細想也合理:視頻抹除技術沒有生成式AI那么強的"創造性"光環,監管壓力小;同時,開源能快速建立生態,讓VOID成為行業事實標準。
已經有開發者把VOID接進了Blender插件,實現3D場景和視頻的無縫編輯。另一個獨立項目在用VOID做"視頻去水印"的自動化流水線——這顯然不是Netflix官方鼓勵的用法。
技術社區的反應分成兩派。一派興奮于終于有開源的高質量視頻修復工具,另一派擔憂的是檢測滯后。目前能識別AI抹除的視頻取證工具,準確率還在60%左右徘徊,而VOID的迭代速度是按月計算的。
一個從事數字取證的工程師在Hacker News上評論:「我們還在用2022年的方法檢測2024年的偽造,這仗沒法打。」
VOID的論文里埋了一個細節:模型在訓練時專門加入了"對抗樣本"——也就是那些被刻意修改過、用來欺騙檢測器的視頻。團隊聲稱這能提升抹除的自然度,但副作用是,它可能也在無意中教會了模型如何規避現有的檢測手段。
視頻真實性的終局
2023年, deepfake檢測還是學術會議的熱門議題。到了2024年,討論基調變了:更多人開始接受"視頻不可信"作為默認前提,轉而關注溯源技術和信任鏈建設。
VOID的出現加速了這個轉向。它不是第一個視頻抹除工具,但它是第一個由頂級內容平臺開源、且效果達到商用級別的。這意味著技術門檻從"需要專業團隊"降到了"會跑Python腳本就行"。
Netflix自己在演示視頻里放了一個耐人尋味的案例:一段家庭錄像中,父親抱著孩子的畫面被修改為母親抱著孩子。人物姿態、衣物褶皺、背景光照全部自然銜接。
技術團隊標注這是"交互編輯"功能的展示,但觀看者很難不聯想到更復雜的場景——比如,修改歷史影像中的人物,或者抹除監控里的關鍵證據。
論文的致謝部分提到,VOID的開發得到了Netflix內容法務團隊的支持。這暗示了內部討論中必然出現的張力:一個能大幅降低內容成本的工具,同時也是一個能制造法律風險的工具。
最終開源的決定,可能是把這種張力拋給了更大的社區。
現在GitHub倉庫的issue列表里,排在前三的請求分別是:支持4K分辨率、支持實時預覽、以及——"能不能加一個水印,標記這段視頻被AI修改過"。
最后一個請求目前還沒有官方回應。但VOID的架構里確實留了一個接口,用于輸出"修改置信度圖"——也就是AI認為"這部分內容被改動過"的概率分布。這或許是未來檢測工具的基礎,也可能只是免責聲明的技術包裝。
一個測試過VOID的獨立開發者在推特上發了段對比視頻:原片里有人走過鏡頭,抹除版里那條街空無一人。他配文說,"我花了一下午讓這個人消失,現在我在想,怎么證明我曾經讓他存在過。"
這條推文下面,最高贊的評論是:「你不需要證明。問題是,誰還會相信任何視頻?」
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.