![]()
哈嘍,大家好,我是小墨,12月的AI圈被一條融資消息炸翻:美國視頻生成明星公司Luma AI完成9億美元C輪融資,估值飆升至40億美元。
領投方是沙特公共投資基金旗下的HUMAIN,老股東AMD Ventures、Andreessen Horowitz等紛紛跟投。
更炸的是首席科學家宋佳銘的專訪表態:“2026年還卷畫質和時長就輸了,Ray 3會是我們最后一代傳統視頻生成模型。”
這話讓不少從業者心頭一緊,視頻生成的游戲規則要變了?
![]()
這個方向最耗錢的就是算力,投資方HUMAIN正在沙特建的“Project Halo”超算集群,已經完成第一階段1GW算力部署,這是全球目前已投產的最大AI超算之一。
![]()
Luma作為核心客戶,已經用這批算力訓練多模態模型,宋佳銘透露:“處理視頻數據的效率比之前提升了3倍,之前要1個月的訓練現在10天就能完成。”
團隊也在為新方向擴容。Luma目前130人的團隊里,30%是研發崗,但最近在組建“多模態融合組”,招人策略很特別,不搶成名的AI大佬,而是挖潛力新人。
這種“不追明星追潛力”的思路,宋佳銘有自己的道理:“就像足球青訓,成名選手轉會費太高,創業公司扛不住。我們更愿意在有人發現他們之前,就看到他們的價值。”
![]()
傳統視頻生成模型的短板,行業內早就有共識,今年11月Adobe MAX大會上,洛杉磯廣告公司TBWA的演示很直觀:用某知名模型補拍汽車廣告的側后方鏡頭,生成的車輪朝向和原鏡頭完全相反;換成Luma的Ray 3,自動匹配了車身光影和車輪角度,直接通過導演審核。
這就是宋佳銘強調的“推理能力”。咱舉個具體場景,北京奧美廣告今年接了個手機發布會廣告,拍攝后發現少了個俯拍全景鏡頭。
![]()
用傳統模型生成,背景里的觀眾位置和之前的近景鏡頭對不上;Ray 3卻能先分析不同機位的素材,推理出每個觀眾、每個道具的3D位置,再生成銜接絲滑的俯拍鏡頭,整個過程只用了2小時。
Ray 3能做到這點,靠的是對物理世界的理解。宋佳銘團隊在訓練時,加入了大量電影拍攝的分鏡腳本數據,讓模型學會“鏡頭語言”。
比如知道特寫之后接全景要保持構圖連貫,運動鏡頭要符合物理慣性,這些都是傳統模型不具備的能力。
![]()
Luma不是沒嘗過C端的甜頭,去年6月推出的Dream Machine,零推廣4天吸粉百萬,電影級運鏡效果讓網友直呼“能跟Sora叫板”。但宋佳銘很快發現問題:3個月后付費率不足2%,很多用戶玩夠了就走。
同期的一個競品案例更有說服力。某公司推出的C端視頻生成工具“快影生成”,上線時靠“10秒做MV”火了一把,半年后月活跌了80%。A16z合伙人Olivia Moore公布的數據更直接:Sora 2的60天留存低于1%,而TikTok能穩定在30%左右。
這讓Luma果斷轉向B端。今年9月Ray 3上線后,首先對接的就是影視和廣告公司。上海某影視制作公司負責人李敏算了筆賬:以前補拍一個鏡頭要重新租場地、調設備,至少花5萬元;用Ray 3生成,成本不到5000元,準確率還高。他們已經和Luma簽了年付100萬的合作協議。
![]()
B端的付費意愿確實更剛性。宋佳銘透露,目前Luma的付費客戶里,影視公司占比60%,廣告公司占30%,這些客戶的續約率超過90%。相比之下,C端業務雖然還在運營,但已經不再是資源投入的重點。
不過B端也有門檻。美國某車企曾擔心數據安全,要求Luma的模型部署在自己的服務器上。Luma的技術團隊用2周時間完成了私有化部署,還通過了SOC 2安全認證,這才拿下這筆年付200萬的訂單。“B端客戶要的不是炫技,是穩定、安全和能解決實際問題。”宋佳銘總結道。
![]()
Luma AI的9億融資和戰略轉向,本質是踩準了視頻生成的進化節奏。從卷畫質到拼推理,從追C端流量到守B端剛需,再加上超算算力加持,這條路走得很清醒。
視頻生成的下半場,比的不再是誰生成得好看,而是誰更懂現實世界、更懂專業需求。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.