有一家做AI漫劇的團隊,員工原來是中午上班,干到凌晨1點下班。不是996,是這行的作息就這樣,算力便宜,排隊的人少。
然后Seedance 2.0發布了。
凌晨1點,官方平臺上還有上萬人排隊。他們把上班時間改成了凌晨3點。
這可以說是AI時代最新的魔幻現實主義了。同一篇報道里提到,有創作者截圖顯示隊列前面有13萬人,預計等待時間「未知」。
![]()
一個視頻模型把人逼成這樣,上一次見到類似的場面還是排隊退ofo押金。
我沒排隊。我2分鐘就用上了。
不是什么特殊渠道,是因為我用的LibTV。
![]()
上個月我寫過LibTV,當時主要聊它「兩扇門」的設計:一扇給人用的畫布,一扇給Agent用的Skill接口。那篇文章發的時候LibTV剛上線一天,我讓龍蝦通過Skill自動做了一支小貓補光燈的宣傳視頻,整個過程沒打開任何界面,Agent自己跑完了從劇本到成片的全流程。
然后最近用的時候,發現LibTV上有一個叫StarVideo 2.0的模型。用的時候就覺得這個模型的效果好得有點離譜,不像是一個名不見經傳的模型該有的水平。網上也有不少人猜測StarVideo 2.0就是Seedance 2.0。
現在他們終于公布真相了。StarVideo 2.0就是Seedance 2.0。 果然是。
LibTV和字節是深度合作關系,Seedance 2.0的API在LibTV上做了底層適配和優化。這一周我用StarVideo 2.0生成的那些視頻,實際跑的就是Seedance 2.0的引擎。而且LibTV在接入層做了專門的優化,效果實測比官方平臺直用還穩一些。
具體好多少我沒法量化,但有一件事是確定的:在LibTV上用Seedance 2.0,基本不排隊,單條生成2到3分鐘。
同一個模型。一邊是13萬人排隊、4到5小時等待、凌晨3點上班。另一邊是打開就能用、2分鐘出片。這個體驗差距不需要我渲染。
說說我為什么這么需要AI視頻
很多公眾號的新朋友可能不知道,我也是個B站UP主。而且最近三天,我每天都發了一條20分鐘左右的長視頻。
![]()
3月29號OpenClaw使用技巧,3月30號DeepSeek V4,3月31號Claude Code源碼泄露解讀。三條加起來快40萬播放。
做過視頻的人知道這意味著什么:每條20分鐘的視頻,里面需要大量的畫面素材來配合講解。屏幕錄制只能覆蓋一部分,剩下的概念圖、流程圖、演示動畫,全得自己搞。
更要命的是這三條里有兩條是趕熱點的。Claude Code源碼泄露那條,從消息出來到我發視頻,中間只有幾個小時。如果我要等某夢排隊4小時才能生成一個素材,黃花菜都涼了。熱點不等人,但好的畫面素材又不能對付。
所以我對「好用且快」的AI視頻工具有極強的訴求。
舉個真實的例子。寫這篇文章的時候我順手用LibTV的Seedance 2.0生成了一段Claude Code「越獄」的動畫素材,小機器人掙扎著沖破屏幕逃跑,不到2分鐘就出來了。
![]()
看到成品的時候我第一反應是后悔:前天做那條Claude Code源碼泄露的視頻時,要是已經發現了這個工具,視頻的畫面呈現還能再上一個臺階。
這也是為什么LibTV上線Seedance 2.0對我來說不只是一個產品更新,而是解決了一個真實的、每天都在面對的痛點。
Seedance 2.0猛在哪
如果你最近沒怎么關注AI視頻這塊,簡單說幾個點。
2024年2月我在即刻發過一條動態,大意是「AI視頻生成的不可控性太強了,當玩具拼拼湊湊可以,但要做真正消費級的影視內容還差得遠」。兩年過去,Seedance 2.0基本把我這條打臉了。
Seedance 2.0是字節2月12日發布的視頻生成模型,發布當天官方平臺排隊人數就破了萬。幾個核心能力:
多鏡頭敘事。不是生成單個鏡頭,而是一次性輸出包含多個鏡頭切換的連貫視頻,最長15秒。對做短劇、廣告片的人來說這是質變,以前要一個鏡頭一個鏡頭生成再拼,現在模型自己理解場景轉換。
音視頻一體化。同步生成對白、環境音和動作音效,唇語同步。不用再額外配音配樂,生成出來就是有聲音的完整視頻。
角色一致性。這是Seedance 2.0的設計核心,不是事后補丁。給一個角色參考圖,后續所有鏡頭里這個角色的外貌保持一致。做連續劇情的時候主角不會從第一幕到第三幕換了張臉。
首次成功率90% 。行業平均大概20%,也就是以前10次里只有2次能用的,現在10次里有9次。抽卡次數少了,成本就低了。
有個視效總監用Seedance 2.0做了一部2分鐘的科幻短片「歸鄉」,總成本330.6元。很多媒體報道時用的標題是「影視圈被Seedance 2.0打懵了」,挺夸張,但看了作品之后覺得也不算太夸張。
X上也是一大堆科技圈大佬夸贊的。
![]()
迪士尼都急了,發布兩天后就給字節發了停止函。好萊塢MPA也跟進指控版權侵權。一個模型把好萊塢逼到發律師函,某種意義上也是一種認可。
關于排隊和降智
但是呢,最近很多用Seedance 2.0的朋友發現了一個比排隊更難受的事:某夢上的生成效果似乎在變差。同樣的prompt,前一周還能出相當不錯的畫面,這一周就開始出現奇怪的變形、光影不對、角色走樣。
我跟幾個做AI視頻的朋友聊了一下,大家感受差不多:高峰期排隊的時候,模型「降智」的現象尤其明顯。有人猜測是算力緊張時做了降級處理,有人覺得是版本回滾。原因沒法證實,但體感上確實不如剛發布那幾天。
我在LibTV上用Seedance 2.0跑了差不多一周,沒遇到這個問題。經過反復測試,LibTV上的確實是滿血版的Seedance 2.0,效果表現穩定。感覺他們不只是接了Seedance 2.0的API,可能還在接入層做了專門的底層優化,實測穩定性和效果優于直接使用官方模型。
這個說法我自己的體感是對得上的:同一個創意方向,用LibTV跑出來的結果一致性更好,廢片率更低。
為什么會出現這情況,我個人感覺是因為某夢是面向所有用戶開放的消費端產品,每天幾百萬人涌進來排隊,算力就那么多,不排隊才怪。
LibTV走的是另一條路。作為深度合作的第三方平臺,它通過API接入Seedance 2.0,有獨立的算力調度。你可以理解為大家都在擠正門的時候,LibTV走了一條專用通道。
而且LibTV不只是套了個殼。他們在接入層做了優化,針對穩定性和出圖效果做了調整。我自己用下來的感受是生成失敗率確實低,幾乎沒有排隊,偶爾有幾十秒的等待,但不是那種「前面還有13萬人」的等待。
對認真做內容的人來說太懂這種生成速度提升帶來的生產效率和創作方式的改變了。做一個30秒的廣告片,核心鏡頭可能要反復生成幾十次才能挑出滿意的。如果每次生成要排隊4小時還不確定效果好不好,這個項目可能要花一周。在LibTV上每次2到3分鐘,效果穩定,一個下午就能把素材全部跑完。
不只是省時間,是AI總有抽卡的需要,更快的話你就更有機會迭代。排隊的時候你不敢試,因為試一次的時間成本太高了。不排隊的時候你敢大膽試,試50次也不過兩個多小時。創作方式在變。
我更喜歡讓Agent幫我跑完全流程
上篇文章我演示過龍蝦可以通過LibTV Skill自動完成從劇本到成片的全流程。這次Seedance 2.0的加入,讓這條路的終點質量有了明顯提升。
先解釋一下LibTV的兩種用法。
一種是你完全可以在LibTV的畫布上手動操作。
![]()
這是給人類用的模式,所見即所得,拖拖拽拽點點按鈕,適合不寫代碼的創作者。
但LibTV還有另一扇門:Skill接口。這是給Agent用的。你在LibTV后臺生成一個Access Key,然后把LibTV的Skill安裝到你的Agent里(比如龍蝦),Agent就可以通過API直接調用LibTV的全部能力,包括Seedance 2.0。
![]()
說實話,相比畫布模式,我個人更喜歡用Claude Code接入LibTV Skill來操控整個流程。
原因很簡單:我在終端里用自然語言告訴龍蝦我要什么,它自己去調API、建畫布、傳素材、寫prompt、調Seedance 2.0生成視頻。我不用在界面上一個按鈕一個按鈕地點,整個過程就是跟Agent對話。
比如我讓龍蝦做一個「全球新聞主播輪番報道橙皮書」 的15秒視頻。龍蝦先構思了一個單鏡頭版本,我看了覺得不夠有沖擊力,跟它說「你完全可以直接去要求多鏡頭的切換」。它立刻理解了,重新寫了一個包含5個鏡頭快速切換的prompt:CNN風格美國金發女主播、NHK日本男主播、BBC英國主播、央視中國女主播、最后收尾四格畫中畫加巨大的橙皮書封面閃耀。兩個版本都用Seedance 2.0跑的,幾分鐘后兩條視頻都出來了。
![]()
這個過程最讓我驚喜的不是最終效果,而是跟Agent協作的體驗。我不需要自己去想「CNN演播室長什么樣」「NHK的布景風格是什么」這些細節,我只要說「全球新聞主播輪番報道」,CC自己就把5個國家的演播室風格、主播形象、畫面構圖全想好了。我能做的最有價值的事就是在它給出方案后判斷「這個好不好」,不好就讓它換一種。
對做內容的人來說這意味著什么?你不需要學任何鏡頭語言、分鏡設計、視頻剪輯。你需要的是品味,是知道「這個好不好」的判斷力。創意是你的,執行交給Agent。
畫布模式和Skill模式不矛盾。畫布適合需要精細控制每個鏡頭的專業創作者,Skill適合像我這樣想要「一句話啟動,當甲方審片」的人。而且兩者的結果是互通的,Agent通過Skill生成的內容會自動鋪在畫布上,你隨時可以打開畫布去手動調整某個不滿意的鏡頭。
什么類型最容易做出來
從測試來看有個明確的難度梯度。
產品廣告和概念短片是最容易成功的。每個鏡頭可以相對獨立,構圖穩定,Seedance 2.0的角色一致性和多鏡頭敘事能力完全hold住。
動畫風格比寫實風格容易。 風格化本身會掩蓋一些物理細節的不真實,所以如果你想讓自己出鏡但又不想真人出鏡,用動畫/漫畫IP形象是個好方案。
我自己就是這么干的。我有一個漫畫版的花叔形象,漁夫帽+圓框眼鏡+米色衛衣。整個流程是這樣的:
第一步,把漫畫頭像上傳到LibTV畫布。
![]()
第二步,選中這張圖,點工具欄里的「角色三視圖生成」。不需要寫任何提示詞,LibTV會自動從你的正面圖推演出側面和背面,生成一組完整的角色設定圖。這一步的意義是讓后續所有鏡頭的角色保持一致,不會生成到一半換了張臉。
第三步,繼續選中角色圖,點「25宮格連貫分鏡」。這一步也不需要自己寫分鏡腳本,LibTV會根據你的角色自動生成25個連貫的場景畫面,從街景到公園到咖啡館,服裝體型配色始終一致。相當于一次性把整段視頻的關鍵畫面都預覽出來了。
![]()
第四步,確認分鏡沒問題后,選中想要的關鍵幀,用「圖生視頻」配合Seedance 2.0生成視頻。這時候寫一句簡單的提示詞就行,比如「動漫男生在公園長椅上打開筆記本電腦,鏡頭緩慢推進,畫風溫暖治愈,4K畫面穩定」。因為前面已經有了角色設定和分鏡參考,生成出來的視頻一致性比直接文生視頻要穩定得多。
這套流程對想做Vlog、個人品牌宣傳、課程片頭的人來說挺實用的。不用真人出鏡,用你的動漫形象就能撐起整段視頻。而且整個操作就是在畫布上點幾下,不需要懂任何專業的視頻制作知識。
不要一上來就做多人對話或復雜打斗。口型匹配在多人同框時還不穩定,復雜肢體動作的物理合理性也不是每次都過關。這些是當前所有視頻模型的共性邊界。不過,LibTV里做一些基礎的武俠風格的視頻倒也是相當輕松還挺有80年代港片那味的~
一個實用技巧:找一個你喜歡的廣告片丟進LibTV解析出分鏡腳本,然后在這個腳本上換角色換場景。站在別人的專業分鏡上做你自己的內容,比從零開始快很多。
正好趕上一波活動
LibTV配合Seedance 2.0上線做了一波限時活動,我自己先沖了一波團隊版的旗艦版會員,然后也幫你們了解了下活動詳情。
![]()
具體來說就是4月2日到4月7日:買會員直接贈送Seedance 2.0、可靈O3和可靈3.0的免費使用條數。具體是這樣的:
個人版大師年會員贈送Seedance 2.0共5條,旗艦年20條,尊享年60條。可靈O3和可靈3.0也是同樣的數量。團隊版按席位算,大師年5條/席位,旗艦年20條/席位,尊享年60條/席位。
另外這次還上線了一個新功能:積分商店。首購積分包限時雙倍,最高贈3萬積分,支持Seedance 2.0消耗。可靈O3+3.0、Lib Nano Pro等頂級模型專享包比原廠低30%。對重度用戶來說,積分體系意味著跑模型的邊際成本可以壓得更低。
對想認真做AI視頻的人來說,這個價格加上不排隊的體驗,可能是現階段使用Seedance 2.0性價比最高的方式了。
上次文章我說「先裝上Skill的人會比別人早一段時間把龍蝦練出來」。這次補充一句:先在不用排隊的地方把Seedance 2.0用熟的人,等到官方平臺的排隊問題解決了,他們的經驗值已經甩了別人一截了。
LibTV官網:https://www.liblib.tv/
GitHub(Skill包):https://github.com/libtv-labs/libtv-skills
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.