![]()
編輯|楊文、Youli
音樂圈,正被 AI 攪得天翻地覆。
這兩年 AI 音樂的進化速度,比大多數人預想得都快。
過去想做出一首像樣的作品,要經歷詞、曲、編、錄、混五道環節,周期起碼半個月起,成本少則幾千,多則數萬。AI 出現后,輸入一句提示詞就能直出完整作品,創作成本一壓再壓。
而現在,我們甚至連提示詞都不用研究了,找首喜歡的歌丟給 AI,它直接翻唱成我們想要的風格,毫無音樂基礎的普通人,也能在幾分鐘內拿到一首屬于自己的歌。
AI 音樂,正加速邁進一個零成本創作時代。
4 月 10 日,MiniMax 又帶來一次重磅更新,其中最核心的新功能,就是Cover 翻唱
一首平平無奇的生日快樂歌,可以被 cover 成 EDM 風格:
![]()
經典的《友誼地久天長》也能被 AI 改編成靈魂樂調調:
![]()
與此同時,MiniMax 還正式上線Music 2.6 模型,并發布專屬 Music Skills
![]()
相比上一版本,Music 2.6 的改進集中在三條線上:速度、音樂性和音質。首包延遲預計壓縮到 20 秒以內;樂器種類更豐富,人聲也往隨性、自由的真實演唱狀態靠攏;音質上則重點優化了中低頻,貝斯和鼓點的下潛質感改善明顯。
比如這首煙熏感的前衛爵士與新靈魂樂融合曲:
![]()
目前,Music 2.6 已開放體驗,C 端用戶可免費暢玩 14 天,每日有 500 首免費生成額度,API 也對所有用戶開放 Music 2.6 和 Cover 的調用。
![]()
體驗鏈接:https://www.minimaxi.com/audio/music
接下來,我們就奉上一手實測。
Cover 翻唱能力:旋律留下,風格換掉
Cover 翻唱是 AI 音樂領域一直被反復嘗試、卻也反復翻車的難題。
難點在于旋律要留,但所有包裹它的編曲語言、演唱風格、律動質感,要能做到真正的風格置換。
MiniMax 這個新功能可以在保持參考歌曲旋律特征基礎上,自由進行伴奏改編、歌詞替換、風格遷移
我們先測下歌詞替換、旋律保留。這個需求在內容創作圈子很普遍,比如做鬼畜二創、品牌定制改編曲、節日特供版本等,核心訴求都是旋律不動換個歌詞。
我們選了首網絡神曲《哈基米》,把歌詞換成職場打工人日常碎碎念。
![]()
新歌詞的音節分布和字數密度與原旋律的吻合度相當高,不需要事后手動調整哪句詞和旋律對不上的問題。對于沒有樂理基礎、但有改詞需求的用戶來說,這一步節省的時間和試錯成本相當可觀。
![]()
再聽下昏暗的老式爵士酒吧里獨飲、飽經滄桑沙啞男聲的靈魂樂版。
![]()
我們又上傳一首耳熟能詳的江蘇民歌《茉莉花》,要求改編成搖滾版本。
AI 翻唱中,編曲融入強烈的電吉他失真節奏與貝斯驅動,配合激烈的鼓組設計,前奏以現代搖滾元素切入,副歌人聲高亢有力,爆發力與舞臺氛圍感均在線。
![]()
在一次節目上,安妮?海瑟薇即興說唱 diss 狗仔。我們就讓 MiniMax 把這首節奏密度很高的說唱改成校園民謠風格。
![]()
AI 模擬的人聲蠻自然,吉他伴奏編排流暢,托得住人聲,將充滿侵略性的說唱詞配上溫柔的民謠曲調,有種一本正經唱怪詞的幽默。
![]()
Music Skills:普通人隨心「手搓」音樂
此次更新,MiniMax 還開放了三個 Music Skills 套件,托管在 GitHub 倉庫,可通過 mmx-cli 絲滑調用。
![]()
音樂生成也正在快速走向 Agent 化,AI 能主動理解我們的需求、處理多步操作,大大突破了交互和工作流的局限,以前想不到的玩法,現在都變得容易實現了。
其中minimax-music-gen作為核心生成引擎,封裝了人聲、純音樂和翻唱三種模式。我們可以通過簡單的 Prompt 或 API 調用實現精準的強控制創作。
GitHub 鏈接:https://github.com/MiniMax-AI/skills/tree/main/skills/minimax-music-gen
如果覺得單曲不過癮,還可以試下minimax-music-playlist。這是個性化歌單生成器,能掃描本地音樂應用,如 Apple Music、QQ 音樂、Spotify 或網易云,構建我們的音樂品味畫像,包括風格分布、語言偏好、情緒傾向等,并據此規劃生成 3 到 7 首定制歌單。整個過程支持實時反饋評分,歌單越聽越合心意。
比如說一句「幫我生成一個深夜放松的歌單」或「給我做個 3 首歌的通勤歌單」,Agent 便會自動掃描本地音源、規劃歌單并播放。
GitHub 鏈接:https://github.com/MiniMax-AI/skills/tree/main/skills/minimax-music-playlist
buddy-sings則專為寵物愛好者打造。它會讀取 Claude Code 寵物名字和個性,自動生成專屬聲音身份,以寵物第一人稱視角創作并演唱歌曲,還能根據當前會話上下文來個即興創作。
GitHub 鏈接:https://github.com/MiniMax-AI/skills/tree/main/skills/buddy-sings
只要在環境變量中配置好 API Key,通過簡單的命令行切換中英雙語,一個本地 AI 音樂工作室就搞定了。
Music 2.6 模型:聽聽它到底進步在哪
與上一版本相比,Music 2.6 已經進入「可控創作」階段,不管是控制性、實時性,還是創作自由度上,都有全方位突破。
簡單來說,就是更豐富自然、律動感更強、創作更便捷。
音樂性上最直觀的變化,是樂器種類的擴充,支持超 100 種樂器,樂器與人聲的配合也更緊密、和諧。
![]()
音質上,Music 2.6 提升的不只是聲音變清晰,中低頻優化后帶來的律動感更強,非常適合節奏感強的流行、電子或搖滾樂。
例如用「節奏感強的流行、搖滾樂」這幾個字作為提示詞,就能跑出一首完整的歌曲。
![]()
Music 2.6 對非專業創作者最友好的一點,是溝通成本大幅降低,即便不輸入歌詞,只給出風格提示詞,最快 20s 內即可生成一首包含歌詞的完整曲目。
純器樂提示詞:「爵士小酒館,鋼琴三重奏,有點慵懶。」
![]()
我們還嘗試了「古詞新唱」,將《水調歌頭》的詞直接作為歌詞,分別搭配不用風格提示詞,短時間內就得到風格迥異的 demo。
提示詞:「古風,古典、琵琶、古琴。」
![]()
提示詞:「民謠、原聲吉他、憂郁。」
![]()
總而言之,Music 2.6 在情緒掌控、BPM(速度)與 Key(調性)鎖定上,已經實現以用戶意圖為導向,不再像之前那樣「開盲盒」隨機輸出。
現在只要給出明確的情感基調與節奏指令,它就能交出契合需求且富有感染力的作品。
結語
AI 音樂和真人音樂,最終的區別在哪里?
技術層面的差距在快速收窄,這是無法回避的事實。Music 2.6 在延遲、控制精度和音樂性上的進步,都是可感知的,不是「擠牙膏式」的小修小補。
Cover 能力的加入,更是把 AI 音樂推向「二次創作」的維度,這個維度歷來是人類音樂人最活躍的領域之一。
創作的門檻在變低。有旋律想法但不會編曲、想做播客但請不起音樂人、想給自家寵物寫一首搞笑歌…… 以前這些念頭只能留在腦子里,現在不用了。
技術永遠是工具,工具足夠好用的時候,它真正解放的,是那些一直有想法、只是缺少出口的人。
文中視頻、音頻鏈接:https://mp.weixin.qq.com/s/Nbwc0N8Y9BWwNd1Eg5JXLA
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.