![]()
![]()
撰文 | 曹雙濤
編輯 | 楊博丞
題圖 | 豆包AI
“割裂”正成為2026年AI創(chuàng)作圈最真實的狀態(tài)。
左手是被市場包裝出的AI創(chuàng)作暴富敘事:DeepSeek指令+番茄小說,月賺5萬;零基礎(chǔ)學習AI圖文帶貨,首月帶貨6萬+單;AI寫作+“養(yǎng)龍蝦”+批量矩陣賬號日發(fā)千條、年入百萬;7天速成AI漫劇,可接高達每分鐘200元到500元的商單。
右手卻是市場冷酷的信用清算:大量內(nèi)容平臺對AI生成內(nèi)容的監(jiān)管愈發(fā)嚴格;即夢會員漲價、積分縮水生成需排隊,生產(chǎn)成本持續(xù)上漲;季冠霖、邊江工作室、729聲工場等頭部配音機構(gòu)接連出手,打響聲音主權(quán)保衛(wèi)戰(zhàn)。
![]()
圖源:基于公開信息整理(即夢會員漲價對比)DoNews制圖
割裂背后,也給市場帶來更多冷思考:內(nèi)容平臺為何持續(xù)強化對AI內(nèi)容的治理與規(guī)范?AI究竟為創(chuàng)作者沉淀了多少可復用的核心資產(chǎn),還是只留下批量堆砌的低質(zhì)內(nèi)容?那些被反復追捧的“AI增效”價值敘事,在現(xiàn)實考驗中又真正落地了多少呢?
01.
全球內(nèi)容平臺監(jiān)管升級中
針對AI生成內(nèi)容的監(jiān)管持續(xù)收緊,已成為2026年全球主流內(nèi)容平臺的共識和趨勢。
國內(nèi)繼3月小紅書全面封禁純AI托管賬號后,4月微信公眾平臺也為完全依賴AI創(chuàng)作的賬號劃定明確紅線。新版《微信公眾賬號行為規(guī)范》明確要求:公眾號與服務號不得借助AI、腳本、接口或其他自動化工具,替代真人完成內(nèi)容創(chuàng)作、發(fā)布等全流程運營;一旦觸碰紅線,平臺將采取限流、刪文、功能限制、賬號封禁的處罰。
![]()
圖源:《微信公眾賬號行為規(guī)范》
微信公眾平臺的監(jiān)管并非個案,我們梳理國內(nèi)短視頻/內(nèi)容社區(qū)、圖文自媒體、小說、短劇、長劇、網(wǎng)絡視聽、音頻/音樂/播客等多領(lǐng)域平臺的AI監(jiān)管政策后發(fā)現(xiàn):
![]()
圖源:基于公開信息整理 DoNews制圖
當前各大內(nèi)容平臺均要求創(chuàng)作者在片頭前3秒、標題或封面等顯著位置進行醒目標注——“內(nèi)容由AI生成,疑似使用了AI技術(shù),請謹慎甄別”。對未標注或違規(guī)使用AI的內(nèi)容,限流、降權(quán)、下架是平臺的常規(guī)操作。這些處罰,直接關(guān)乎創(chuàng)作者的收益與賬號生死。
更關(guān)鍵的是,標注不等于“免罰通行證”。對完全依賴AI自動化生成、批量發(fā)布、缺乏真實表達與原創(chuàng)增量的內(nèi)容,即便已按要求完成標注,平臺仍可能基于內(nèi)容低質(zhì)、低價值或非真人自動化創(chuàng)作等判斷,進行各種處罰。
不過由于各平臺屬性存在差異,監(jiān)管細節(jié)也有所不同。例如,小說平臺的編輯在審稿時,若發(fā)現(xiàn)稿件存在AI注水劇情、過度堆砌環(huán)境描述,或是濫用小眾詞匯等典型“AI味”的稿件,將直接被打回。
而在版權(quán)風險更高的短劇、仿真劇、長劇集領(lǐng)域,平臺則通過提高準入門檻、強化事前核驗來嚴控風險。以紅果短劇為例,2026年Q1,該平臺已累計下架違規(guī)漫劇1718部。
這種對AI低質(zhì)內(nèi)容的警惕,已延伸到行業(yè)上下游——目前部分甲方明確表示,只要合作方用AI生成大綱或初稿,就直接拉黑、永不合作。
不難看出,當前內(nèi)容平臺對AI生成內(nèi)容的治理,正從零散的規(guī)則要求,升級為全行業(yè)統(tǒng)一的行為準則,監(jiān)管已全面覆蓋“發(fā)布—審核—分發(fā)—變現(xiàn)—賬號”的全流程,形成閉環(huán)管控。整個行業(yè)圍繞AI內(nèi)容監(jiān)管的共識愈發(fā)清晰:合規(guī)透明、鼓勵輔助、嚴懲濫用、保護原創(chuàng)。
而我們在梳理YouTube、TikTok、X、Facebook海外主流內(nèi)容平臺的監(jiān)管政策時發(fā)現(xiàn),當前采取的是“高風險內(nèi)容強制披露、普通AI內(nèi)容引導標注”的分級模式:平臺僅要求創(chuàng)作者對“看起來真實、可能誤導公眾”的逼真合成、深度偽造內(nèi)容進行披露;對于普通的AI輔助創(chuàng)作,并不做全量強制標注要求,核心聚焦于防范AI內(nèi)容誤導用戶、傷害公共利益。
![]()
圖源:基于公開信息整理 DoNews制圖
其中,YouTube要求創(chuàng)作者披露逼真合成內(nèi)容;TikTok通過創(chuàng)作者自主標注、系統(tǒng)檢測模型、內(nèi)容憑證溯源三者協(xié)同,識別AI生成內(nèi)容;Meta通過“AI info”標簽標注,搭配高風險場景降權(quán),降低AI內(nèi)容的誤導風險;X則將治理重點放在“可能造成傷害的誤導性合成內(nèi)容”上。
海外“分級管控”與國內(nèi)“全覆蓋強制披露、發(fā)布端嚴格管控”的模式形成反差,背后是中外監(jiān)管路徑的差異。國內(nèi)《關(guān)于規(guī)范短視頻內(nèi)容標注工作的指導意見》明確要求,AI生成、擺拍創(chuàng)作、虛構(gòu)演繹、商業(yè)推廣四類內(nèi)容,必須強制標注。
歐洲《人工智能法案》則將AI系統(tǒng)的風險劃分為四個等級:不可接受的風險、高風險、有限風險、極低風險或無風險。其中,面向公眾利益的新聞被納入“透明度風險”范疇,需履行相應的披露義務。
![]()
圖源:基于公開信息整理 DoNews制圖
盡管中外監(jiān)管路徑存在差異,但核心共識高度一致:AI內(nèi)容并非不能存在,但其必須可識別、不可濫用,尤其不能借著“高仿真度”誤導用戶、傷害公共利益、侵蝕平臺信任。說到底,全球法律層面的監(jiān)管,針對的從來不是AI技術(shù)本身,而是“用AI偽裝真實”的違規(guī)行為。
更關(guān)鍵的是,當前海外內(nèi)容平臺的治理邏輯,與國內(nèi)平臺高度趨同。YouTube表示,內(nèi)容能否獲得更多推薦,關(guān)鍵看內(nèi)容本身的質(zhì)量與合規(guī)性,和是否使用AI無關(guān);TikTok同樣強調(diào),不會因內(nèi)容使用AI、標注AI標簽,就降低其分發(fā)權(quán)重,但對于誤導性、違規(guī)性的AI內(nèi)容,仍會果斷采取降權(quán)、移除等處置措施。
至此,全球內(nèi)容平臺對AI生成內(nèi)容的監(jiān)管邊界已愈發(fā)清晰:所有主流平臺打擊的,都是借AI批量生產(chǎn)低質(zhì)、虛假、誤導性內(nèi)容的行為。平臺真正擔心的,是那些“看似是內(nèi)容,卻毫無價值”的產(chǎn)物不斷泛濫,最終沖垮平臺長期建立的真實、原創(chuàng)、優(yōu)質(zhì)內(nèi)容定價體系。
02.
被高估的速度,被低估的返工
這輪內(nèi)容平臺監(jiān)管升級的底層邏輯,早已超越單純的技術(shù)治理,本質(zhì)上是內(nèi)容平臺在“創(chuàng)作效率”與“內(nèi)容真實”之間,重新劃定秩序邊界。與之而來的問題是:AI為內(nèi)容創(chuàng)作帶來的“降本增效”敘事,在現(xiàn)實中是否真正兌現(xiàn)。
“AI大模型本質(zhì)上是在玩一種‘猜字游戲’。”來自杭州的AI算法工程師林陽(化名)說。在他看來,大模型的生成能力依賴前期投喂的海量預訓練數(shù)據(jù),只是學習數(shù)據(jù)中詞語、句子之間的關(guān)聯(lián)規(guī)律,再依靠概率去“猜”下一個內(nèi)容;一旦超出訓練數(shù)據(jù)范圍,就很容易一本正經(jīng)地胡說八道。而且喂進去的數(shù)據(jù)多,也不等于最終結(jié)果就一定可靠。
林陽提到,他日常開發(fā)中一天可能消耗一兩億token,但真正有效的產(chǎn)出極少,大量token都耗費在投喂參考資料、補充背景信息與檢索內(nèi)容上。
也就是說,想讓AI產(chǎn)出高質(zhì)量的文本或代碼,前期必須投入大量精力準備素材、搭建框架、反復引導,這才是決定最終質(zhì)量的關(guān)鍵。
大模型的底層算法邏輯,也決定了其能力邊界:它更擅長處理標準化、流程化的任務,比如生成標準化文案、編寫簡單代碼、制作基礎(chǔ)圖文,這類任務通常不需要深度推理;可一旦面對需要深度邏輯、真實經(jīng)驗或獨特觀點支撐的場景,比如行業(yè)深度分析、深度原創(chuàng)創(chuàng)作,就很容易出現(xiàn)偏差、掉鏈子。
如林陽所言,AI確實在內(nèi)容創(chuàng)作的部分環(huán)節(jié)帶來效率與創(chuàng)意上的提升。以影視創(chuàng)作為例,《The Late Show with Stephen Colbert》團隊表示,單個鏡頭的摳像工作可以從5小時壓縮至5分鐘;業(yè)內(nèi)也有高管預期,VFX與3D資產(chǎn)制作環(huán)節(jié)有望實現(xiàn)80%—90%的效率提升。
內(nèi)容創(chuàng)意層面,短視頻平臺上豆包VS千問VS元寶的“AI宮斗大戰(zhàn)”一度走紅;不少博主啟用“毒舌豆包”模式,金句頻出、傳播力極強。比如,“寶寶,你為什么要在肚子蓋三層樓啊?”“馬戲團禁止動物表演。”“這都開春了,你為什么還要穿棉襖呢?”“你是在肚子上種了肉的種子嗎?”
然而,局部效率的提升,并不等于整體創(chuàng)作成本真正下降。當我們向豆包提問“東鵬特飲為何超過華彬紅牛”時,豆包給出的回復是:“紅牛下沉不足,東鵬給經(jīng)銷商/終端的毛利率約50%,遠高于紅牛的30%。”
![]()
圖源:豆包AI
“東鵬特飲與華彬紅牛留給終端的毛利率均在20%—25%,東鵬兩級(經(jīng)銷商+終端)渠道加帶獎營銷激勵約40個點;華彬紅牛更早深耕全國渠道,東鵬的經(jīng)銷商賬期也并沒有想象中靈活。”從事軟飲料銷售多年的胡楊(化名),對豆包的回復提出了諸多質(zhì)疑。
當中文語料被大量污染、一手真實信息愈發(fā)稀缺,創(chuàng)作者又不得不花費更多時間復核、校對和糾偏時。這也從側(cè)面說明:AI雖讓寫作速度變快,但大幅推高了事實核驗與信息清洗的成本。
相較文本創(chuàng)作,視頻創(chuàng)作面臨的問題更突出。“既然大模型玩的是概率猜字游戲,用它做視頻就必須給出極其細致的關(guān)鍵詞。每一秒的人物動作、風格、神態(tài)、鏡頭銜接等,都必須寫得非常細,否則極易出現(xiàn)場景跳躍、時空錯亂。例如,上一秒還在雪山,下一秒就切到沙漠;講述宋代歷史故事,畫面里卻冒出清代辮子或現(xiàn)代人物。”林陽表示。
他進一步說道,這種概率性問題一方面催生了短劇行業(yè)的“插卡師”新職業(yè),另一方面也讓實際工作量遠超外界想象。比如把《鹿鼎記》這種百萬字體量的原著做成AI短劇,僅撰寫提示詞就可能達到千萬字級別,還要不斷補設定、拆劇情、修鏡頭、保一致性。真正把人拖垮的,是沒完沒了的返工。
AI帶來的大量返工,正讓內(nèi)容創(chuàng)作變得更累。Connext Global對1000名美國職場人的調(diào)查顯示:96%的受訪者在使用AI后仍需后續(xù)修正;46%認為糾錯耗時與手工完成相當,11%甚至認為更久;32%表示AI帶來了額外返工,31%吐槽AI經(jīng)常“自信地輸出錯誤內(nèi)容”。
當AI的真實降本增效遠未達到市場預期時,行業(yè)反而陷入了一場集體幻覺。北京打工人張峰(化名)回憶,某次投標時,老板要求團隊直接用AI寫標書,認為“幾分鐘就能搞定”。結(jié)果AI生成的標書漏洞百出:報價算錯、客戶名稱寫成友商,甚至在標書嘲諷其他競品。面對客戶的怒斥,團隊只能通宵返工,從頭人工重寫。
這類翻車的核心,并不在于AI完全無用,而在于市場把“局部提效”誤讀為“整體提效”,把“初稿生成速度”等同于“最終交付效率”。
AI確實加快了部分環(huán)節(jié),但也帶來了全新的校對成本、信任成本與返工成本。所謂“AI降本增效”的神話,更多是被“生成很快”的速度幻覺不斷放大,而非被現(xiàn)實真正證實。
03.
AI重塑內(nèi)容行業(yè)的規(guī)則邊界
當“降本增效”的幻覺逐漸被現(xiàn)實擊穿,AI創(chuàng)作的能力邊界正觸碰內(nèi)容行業(yè)最敏感的幾條紅線:版權(quán)、真實性、責任歸屬與平臺信任。這些問題的存在,迫使未來全球內(nèi)容平臺對AI生成內(nèi)容的監(jiān)管持續(xù)升級。
AI大模型若想持續(xù)提升輸出質(zhì)量,就必須依賴更大規(guī)模、更高質(zhì)量的訓練數(shù)據(jù),尤其是對于強調(diào)原創(chuàng)性與時效性的媒體行業(yè)來說,這幾乎天然意味著版權(quán)博弈的升級。
以GPT為例,從2023年底《紐約時報》起訴開始,到2024年多家美國新聞媒體與調(diào)查機構(gòu)跟進,再到加拿大主流新聞機構(gòu)聯(lián)合行動,直至2025年大型數(shù)字媒體集團Ziff Davis加入訴訟陣營,針對OpenAI的維權(quán)已從個體媒體行為,演變?yōu)樾侣勁c數(shù)字內(nèi)容行業(yè)的系統(tǒng)性追責。
![]()
圖源:基于公開信息整理 DoNews制圖
這些案件的核心爭議高度一致:AI企業(yè)是否在未經(jīng)許可的情況下抓取媒體內(nèi)容進行訓練,以及模型輸出是否進一步侵蝕媒體內(nèi)容的版權(quán)價值、流量價值與品牌歸屬。
而部分內(nèi)容版權(quán)的保護仍處在盲區(qū)中,進一步放大了這種問題。以聲音權(quán)為例,《哪吒2》太乙真人配音演員張珈銘在接受媒體采訪時表示,其為制止AI盜聲行為投入近10萬元維權(quán),但由于侵權(quán)主體分散、部分甚至為未成年人,實際追責困難,至今未有明確判例。這意味著,在AI大規(guī)模生成能力之下,傳統(tǒng)版權(quán)與人格權(quán)的保護機制,正遭遇執(zhí)行層面的挑戰(zhàn)。
版權(quán)問題尚未理清之際,AI錯誤帶來的權(quán)責劃分更為棘手。當AI開始“一本正經(jīng)地胡說八道”,而這些內(nèi)容又被媒體采納、被平臺分發(fā)、被創(chuàng)作者繼續(xù)使用時,責任邊界就會迅速變得模糊。
例如,CNET使用AI生成的77篇文章中,有41篇被指出存在問題,這讓其對AI寫稿轉(zhuǎn)向極度保守;Gannett推出的自動化高中體育戰(zhàn)報實驗,因生成大量“難以理解的體育描述”而被緊急叫停;NewsBreak利用AI改寫的聚合內(nèi)容,因虛構(gòu)本地槍擊案引發(fā)嚴重輿論爭議。
這些海外案例充分說明:一旦AI內(nèi)容進入“生產(chǎn)—編輯—分發(fā)”的完整鏈條,問題就不只是“稿子寫得差”,而是會演變?yōu)閷娬J知的誤導,甚至觸及平臺、媒體與創(chuàng)作者之間的責任劃分難題。
而當版權(quán)沖突與責任風險繼續(xù)向平臺內(nèi)部傳導,最終被侵蝕的,是平臺賴以生存的內(nèi)容生態(tài)與商業(yè)基礎(chǔ)。在當前用戶注意力極度稀缺的環(huán)境下,內(nèi)容平臺留住用戶與廣告主的核心,依然建立在優(yōu)質(zhì)內(nèi)容之上。可當大量低質(zhì)、同質(zhì)化的AI內(nèi)容無節(jié)制涌入,就會直接沖擊平臺的用戶信任與內(nèi)容生態(tài)穩(wěn)定性。
例如,短視頻平臺上的AI生成照片與視頻雖然精致,卻缺乏真實感;AI小說劇情套路化、情緒空洞,AI文章“AI味”過重、缺乏觀點,AI數(shù)字人直播則顯得機械、缺乏代入感。
這意味著,AI正在迫使內(nèi)容平臺在“效率”與“真實”之間重新做出選擇。如果過度傾向效率,平臺可以在短時間內(nèi)放大內(nèi)容供給,但代價是內(nèi)容質(zhì)量被稀釋、信任被透支;而一旦信任受損,用戶停留時長與廣告價值也會隨之下降。
以BuzzFeed為例,2023年其高調(diào)押注AI內(nèi)容與應用,不僅股價從3美元飆升至15美元,更被視為“AI內(nèi)容商業(yè)化”的標桿案例。
但“All in AI”戰(zhàn)略,卻讓BuzzFeed迎來全面失速:2025全年凈虧損擴大69%至5770萬美元,廣告收入同比下降2.8%至9170萬美元,全年營收同比下滑2.4%至1.853億美元,用戶內(nèi)容停留時長同比下降約7.2%。長期徘徊在70美分的股價,更讓其面臨被納斯達克摘牌的風險。
AI可以放大內(nèi)容產(chǎn)量,卻未必能提升內(nèi)容價值。一旦價值無法同步提升,不僅無法推動流量與廣告增長,甚至可能因內(nèi)容質(zhì)量下降,進一步流失用戶與廣告主——尤其是在廣告預算吃緊的當下。
也就是說,AI正在重寫內(nèi)容行業(yè)的競爭規(guī)則。平臺之間的競爭,不再只是爭奪內(nèi)容供給規(guī)模,而是轉(zhuǎn)向爭奪真實性、可驗證性以及責任閉合能力。未來真正有競爭力的平臺,并不是AI用得最多的平臺,而是最能把AI的生產(chǎn)效率與真實的內(nèi)容信任重新組織起來的平臺。
![]()
![]()
![]()
![]()
![]()
「創(chuàng)新無邊界」是我們的slogan,我們不局限于對互聯(lián)網(wǎng)行業(yè)的追蹤與探索,更要向未來、向未知的方向大膽邁進。因此,「打造行業(yè)新標桿、解讀商業(yè)新動向」是我們秉持的方向之一。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.