新音樂產業觀察原創文章,未經授權謝絕轉載
作者丨朱力克
深夜的錄音棚里,制作人盯著屏幕反復回放一段剛編好的副歌,一邊下意識地去點插件列表。是不是要換個鼓組?是不是要改個音色?不是沒有想法,而是太清楚接下來要付出的時間:重搭音色鏈路、重新對齊節奏、再跑一遍結構,可能只是為了驗證一個不一定成立的感覺。
對很多音樂人來說,這種“被流程拖慢”的創作體驗,早已習以為常。過去兩年,AI音樂工具的爆發,一度讓人以為這個問題會被徹底解決。從“一句話生成一首歌”,到各種自動作曲、自動編曲產品層出不窮,AI似乎已經證明了能寫歌。但在實際創作中,這些工具更多停留在玩具或輔助的位置。好玩,但難以進入真正的創作流程。
2026年以來,事情逐漸有了變化。隨著MiniMax Music 2.5、2.5+的推出,AI音樂在音質、結構和完成度上逐漸逼近專業制作水平,至少在純音樂場景中,已經具備了明確的商用能力。而最新的Music 2.6,則把這種能力進一步推向一個更關鍵的節點:20秒內出歌、旋律與結構可控、風格可以被“編排”。
尤其是兩類能力變得更實用:Vibe Coding式的歌曲創作,創作者只需要描述一種氛圍或感覺,就可以快速得到多個方向的音樂版本,AI Cover則基于已有作品進行風格化改寫、擴展甚至重組。從調式、節奏到人聲、樂器,每個細節都可隨時調整。
![]()
本質上,它意味著一件更重要的事情:AI不再只是“寫一首歌”,而是開始參與“做一個音樂項目”。也就是說,AI正在從一個結果生成工具,變成一個可以嵌入創作流程、甚至重構流程的系統。
從“等結果”到“實時創作”
Music 2.6新模型上線即開啟14天免費體驗,C端網頁用戶每個帳號每日500首/天的新模型音樂創作額度。體驗過后,我們發現Music 2.6解決的,不只是更好聽的問題,而是更快和更可控,從而讓AI真正進入創作過程本身。
在此前的AI音樂工具中,一個最影響體驗的問題是反饋速度。生成一段音樂往往需要等待一分鐘甚至更久,這意味著每一次修改都要經歷完整的一輪等待。對于創作來說,這種節奏幾乎是致命的——靈感往往是連續的,但工具卻是離散的,創作者不得不在等待結果和繼續思考之間反復切換。
Music 2.6把首包時間壓縮到20秒以內,這個變化的意義,并不僅僅是效率提升,而是直接改變了創作的交互方式。創作者可以像使用樂器一樣,與AI進行近似實時的互動:提出一個想法,快速得到反饋,再基于結果繼續調整。創作不再是“提交—等待—修改”的循環,而更接近一種連續的對話過程。
與此同時,這一代產品在控制能力上的提升,同樣關鍵。過去的AI生成,更像是“抽卡”。輸入一個模糊的描述,得到一個不可預期的結果。而在Music 2.6中,創作者可以明確指定BPM、調性(Key)、段落結構、情緒走向等參數,甚至可以對歌曲的不同部分進行精細化控制。這意味著,AI不再只是提供靈感,而是可以參與到嚴肅創作流程中。
這種變化還體現在更細微的層面。相比2.5,2.6不僅在旋律生成上更穩定,也開始理解段落邏輯。副歌的推進、過門的銜接、情緒的遞進更加自然。同時,人聲的表現更接近真實演唱,器樂之間的配合也更像真實樂隊的互動,尤其是在中低頻部分,鼓與貝斯的律動明顯更加“站得住”。
這些看似是技術細節的提升,疊加在一起,帶來的結果是:AI第一次具備了實時反饋+結構可控的能力組合。當這兩個條件同時成立時,AI才真正從生成工具,變成創作工具。
從“寫一首歌”到“搭一套系統”
如果說速度和可控性解決的是能不能用,那么Music 2.6更深層的變化在于,它正在推動音樂創作進入一種全新的工作方式——Agent驅動的創作流程
MiniMax近期開源了3個music skills,并在token plan中新增了每日100 首的免費音樂創作額度。結合mmx-cli的調用方式,創作者可以更方便地嘗試用Agent搭建自己的音樂工作流,把不同的創作環節串聯起來,逐步形成更高效的生產流程。
在傳統的音樂制作中,創作路徑是高度線性的。音樂人需要在DAW(如Ableton Live)中一軌一軌地搭建作品:先寫旋律,再配和弦,接著編節奏、拼結構,最后進入混音與導出階段。每一個環節都需要人工操作,而且彼此之間強依賴,一旦前面發生修改,后面的工作往往需要重來。換一個鼓組要重新搭鏈路,改一段結構要重新拼軌道,而在AI參與的創作流程中,這種模式開始被打破。
新的路徑更接近這樣一種邏輯:創作者用自然語言或結構化提示描述需求,系統批量生成多個版本,創作者快速篩選并進行微調,同時可以并行推進多個方向。這種方式與其說是做音樂,不如說更像是在調試一個系統。
這種變化,和當下流行的Vibe Coding有某種相似性。開發者不再手寫每一行代碼,而是通過自然語言描述需求,由系統生成代碼,再進行選擇和修改。對應到音樂創作中,Prompt和結構控制,正在變成一種新的編程語言,用于編排音樂生成流程。
在這個體系中,Skill的出現進一步放大了這種變化(Skill倉庫地址見評論區)。所謂Music Skills,本質上是把音樂能力拆解成可以調用的模塊。關鍵不在于多了幾個功能,而在于音樂能力本身被組件化了。
例如,生成引擎可以作為一個基礎Skill,自動識別用戶需求并匹配合適的生成策略;歌單生成器則不再只是推薦已有內容,而是基于用戶偏好直接生成新的作品,從而讓“推薦系統”向“內容生產系統”轉變;而類似“寵物歌手”的能力,則讓AI具備持續輸出特定聲音和人格的能力,某種程度上是在構建新的虛擬音樂IP。
更重要的是,這些Skill不僅可以調用,還可以被組合、擴展,甚至由創作者自己構建。
一個熟悉某種風格的制作人,可以把自己的創作經驗拆解成一系列Skill,例如特定的和弦走向、節奏模式、音色組合,然后在不同項目中反復調用。這種能力,使得創作不再是一次性的勞動,而是可以被沉淀和復用的系統資產。
![]()
當Skill與Agent結合之后,創作的自由度被進一步放大。Agent可以自動調用不同Skill,完成從旋律到結構的整體生成,而創作者則在關鍵節點進行干預和選擇。這種模式下,創作不再受限于單一工具或固定流程,而是可以根據需求動態組合能力模塊,甚至“手搓”出屬于自己的創作系統。
因此,Music 2.6真正改變的,不只是怎么寫一首歌,而是怎么生產音樂。
![]()
從作品到服務,AI音樂正在重寫供給邏輯
當創作方式發生變化時,受到影響的就不僅是創作者本身,而是整個音樂供給鏈。
首先,內容生產將進一步爆發。當前已經可以看到多個明確跑通的應用場景:短視頻BGM是規模最大的市場,其次包括國風、同人音樂、方言神曲、企業定制音樂以及游戲音效等。這些場景有一個共同特點,對音樂的需求量極大,但單首作品的預算有限。AI音樂的出現,使得這些需求可以被更低成本、更高效率地滿足,從而進一步擴大整體供給。
其次,體現在Cover能力的變化。在AI體系下,Cover不再只是簡單的翻唱,而更像是一種音樂資產再開發。同一首作品,可以被快速生成多個風格版本,以適配不同平臺、不同受眾甚至不同語境。這種能力,使得音樂從單一作品,變成一種可以被反復利用的內容資源。
再次,Agent工作流融入音樂生產。以MiniMax為代表的路徑,將創作流程拆解為由Agent(任務編排)、CLI(調用接口)與Skill(可復用原子能力)構成的模塊化結構,使旋律生成、風格遷移、歌詞處理等環節可以被標準化、組合與復用。音樂生產有望演變為類似“插件化”的生態結構,創作經驗被沉淀為可流通的能力模塊,從而重塑行業分工與效率邊界。
進一步來看,這些變化正在推動行業結構的調整。平臺的角色,正在從單純內容分發向生成+分發轉變;創作者的角色,從具體制作轉向流程調度與決策;商業模式,也從以版權為核心,逐漸向定制化服務延伸。同時,非專業用戶的參與門檻被大幅降低,創作從技能驅動,轉向表達驅動。
在這個過程中,一個值得關注的問題是版權。當音樂可以被快速生成、改編甚至重組時,原有的版權體系如何適配新的生產方式,仍然是行業需要面對的重要議題。
但可以確定的是,當寫歌變成一件20秒就能開始的事情,當旋律、風格和結構都可以被編排,音樂正在發生一次更底層的變化。它不再只是藝術表達的載體,也開始成為一種類似計算能力的基礎設施。
![]()
過去,音樂是一首首獨立的作品;現在,音樂開始變成可以拆分、重組的內容組件;而在未來,它可能成為一種可以被隨時調用的基礎能力。AI正在推動音樂從作品向資源轉變。
而真正的競爭,也許才剛剛開始。對于AI公司來說,比拼的不只是模型性能,而是誰能構建起完整的音樂創作生態;對于創作者來說,則面臨一個更開放的問題:當每個人都可以做歌,什么才是好音樂?
-全文完-
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.