領(lǐng)導(dǎo)也不懂,但是要追風(fēng)
去年初 DeepSeek 爆火,領(lǐng)導(dǎo)一拍腦袋下令:「咱們內(nèi)部也必須全面擁抱 AI」。緊接著,公司 OA 系統(tǒng)首頁就突兀地多了一個鯨魚的圖標。點進去確實能聊天,但只要問點帶業(yè)務(wù)門檻的專業(yè)問題,它給出的回答就顯得極其弱智。甚至因為安全考慮,沒法聯(lián)網(wǎng),所以會把幾年前的一些新聞?wù)页鰜斫o你。
新鮮感一過,這東西徹底淪為擺設(shè)。
作為打工人,這個又會作為領(lǐng)導(dǎo)又一次的形式主義鬧劇。
但如果站在現(xiàn)在這個時點來看,當時這種形式主義,反而可能是最低成本的做法。
因為一旦真的被高頻使用,不斷取追求新的模型,公司的支出可能要變得更加可怕,按照彼時的Token計費標準,一個百人團隊的高頻AI協(xié)作,月均成本輕松突破數(shù)十萬元。
2026年3月,中國市場日均Token調(diào)用量已達140萬億。而且走出了相反的趨勢,Token單價跌了280倍,但企業(yè)的AI總支出反而翻了3倍。
對的,當所有人都以為 AI 會像云計算那樣帶來成本優(yōu)化時,現(xiàn)實給出了截然相反的答案。單次調(diào)用成本在下降,但調(diào)用量暴漲到足以對沖掉所有降價紅利。連OpenAI、Anthropic這樣的頂級玩家,也在為成本焦慮,OpenAI收入翻倍,毛利率卻從40%跌至33%。
Token,中文名詞元,成為了新的經(jīng)濟學(xué)的研究對象。
我們在互聯(lián)網(wǎng)平臺經(jīng)濟時期我們建立起來的一些觀念,例如規(guī)模越大,成本越低;邊際成本趨近于零,利潤空間無限擴展;技術(shù)進步必然帶來價格下降與社會福利增加。
這些規(guī)律在過去幾十年的互聯(lián)網(wǎng)浪潮中被反復(fù)驗證,塑造了一代投資人與創(chuàng)業(yè)者的底層認知。但如果我們試圖把它放進我們熟知的一些理論中去,會發(fā)現(xiàn)一些矛盾沖突的地方,這可能也是Token經(jīng)濟學(xué)需要我們重新去理解的角度。
幾個與互聯(lián)網(wǎng)平臺發(fā)展規(guī)律相悖的現(xiàn)象
規(guī)模效應(yīng)失效和邊際成本上升
我們看一下OpenAI的財務(wù)數(shù)據(jù),規(guī)模越龐大,盈利越艱難。
年份
營收
推理成本
毛利率
2024
~50億美元
~20億美元
40%
2025
~100億美元
~84億美元
33%
這與傳統(tǒng)的對于行業(yè)成長期描述的「規(guī)模經(jīng)濟」有偏離。按照傳統(tǒng)邏輯,企業(yè)規(guī)模擴張后,應(yīng)當獲得更低的采購成本、更高的運營效率、更強的定價權(quán)。但AI公司的賬本上的等式似乎是:
用戶增長=Token消耗增長=算力成本增長=毛利率下降
Anthropic的數(shù)據(jù)同樣佐證了這一悖論。2026年4月,Anthropic的ARR(年度經(jīng)常性收入)飆升至300億美元,首次超越OpenAI,成為行業(yè)新王。但亮眼數(shù)字的另一面是:毛利率僅為40%,同樣低于45%的目標線。
頭部兩家尚且如此,腰部與尾部的AI公司處境可想而知。
問題的根源在于,AI服務(wù)不是「零邊際成本」的軟件產(chǎn)品,而是每次調(diào)用都消耗真實算力的「數(shù)字服務(wù)」。當用戶規(guī)模擴張時,GPU的電力消耗、服務(wù)器折舊、帶寬費用都在同步線性增長。
技術(shù)進步帶來的成本上升
這個年代搞IT的人,都會有一個預(yù)設(shè):算力成本只會越來越便宜。經(jīng)歷也確實如此,2024年4月,阿里云宣布史上最低20%的降幅,部分產(chǎn)品最高55%。這在云計算產(chǎn)品的長久時代來說,是幾乎已經(jīng)成為刻板印象。
但對應(yīng)地,2026年3月,阿里云、騰訊云云等廠商紛紛上調(diào)AI算力價格,漲幅最高達 34%。
這個背離在互聯(lián)網(wǎng)經(jīng)濟顯得說不通,但我們再往前看1865年,經(jīng)濟學(xué)家威廉·杰文斯發(fā)現(xiàn):蒸汽機效率提升導(dǎo)致煤炭總消耗量反而增加。他的邏輯是,效率提升降低了單位成本,從而刺激了更廣泛的應(yīng)用,總消耗量不降反升。
用戶增長帶來的成本上升
用戶增長反而收緊服務(wù)。2026年,隨著Claude用戶數(shù)量爆發(fā)式增長,Anthropic非但沒有開放更多算力,反而開始收緊使用限制。原本的「200美元包月無限用」被廢除,取而代之的是「基礎(chǔ)費+按量付費」的混合模式。甚至開始強迫KYC,讓用戶手持護照認證,以此排除掉很多過量使用地用戶。
這與SaaS時代的軟件地邏輯是反地。在SaaS場景下,用戶增長是好事。邊際成本為0意味著更多的付費席位會帶來更多的經(jīng)常性收入。但在AI時代,用戶會區(qū)分為重度、中度、輕度用戶。重度用戶消耗的Token量是普通用戶的數(shù)百倍,但支付的溢價可能遠不足以覆蓋成本。
于是我們看到了一個矛盾,用戶越喜歡這個產(chǎn)品,公司越要想辦法限制它被使用。
所以我們就可以看到對于互聯(lián)網(wǎng)經(jīng)濟時代的常識,在AI場景下的矛盾。
![]()
這些理論的失效,問題出在哪里?
答案是,AI更像是新時代的電力基礎(chǔ)設(shè)施,因此我們要用更古典的思路來理解它。
AI的本質(zhì)是「數(shù)字電力」
傳統(tǒng)軟件建立在「代碼是靜態(tài)的,復(fù)制是免費的」假設(shè)上。當微軟開發(fā)出Windows系統(tǒng)后,向第二個用戶、第一百萬用戶、第一億用戶提供服務(wù),邊際成本幾乎為零。這就是為什么軟件時代能夠誕生那么多「贏家通吃」的巨頭。一旦建立產(chǎn)品與用戶規(guī)模的優(yōu)勢,邊際成本趨近于零,甚至?xí)纬捎脩舻谋趬尽?/p>
SaaS時代延續(xù)了這一邏輯。Salesforce、Workday、ServiceNow都是如此,高毛利率(80%-90%)、經(jīng)常性收入、高客戶留存率。這都是因為,同一套代碼運行在云端,向所有客戶提供服務(wù),邊際成本幾乎為零。
但大模型不是這樣工作的。
每當你向ChatGPT提出一個問題、讓Claude生成一段代碼、讓Midjourney畫一幅圖,都有一塊GPU在燃燒真實的電力來完成計算。
換個說法就是,相比于云計算、軟件服務(wù)的「從服務(wù)器上取文件」,AI是「工廠開動機器生產(chǎn)產(chǎn)品」。
這就像比較自來水廠與出版社的商業(yè)模式。自來水廠每向一戶供水都需要抽水、過濾、輸送,成本隨用戶量線性增長。出版社則不同,一本書定稿后,印刷一百萬份與印刷一份的成本差異可以忽略不計。
隨著AI的推進,一個新的術(shù)語開始在產(chǎn)業(yè)界流行:推理經(jīng)濟學(xué)(Inference Economics)。有興趣的可以去讀一下NVIDIA的這篇文章。(https://blogs.nvidia.cn/blog/ai-inference-economics/)
![]()
為什么是「推理」而不是「訓(xùn)練」?因為在AI的全生命周期中,推理成本才是決定商業(yè)模型能否成立的關(guān)鍵變量。
訓(xùn)練成本和推理成本是大模型不同階段發(fā)生的費用。
![]()
訓(xùn)練成本的增長是在加速的。
GPT-3(2020年)的訓(xùn)練成本約460萬-1200萬美元
GPT-4(2023年)的訓(xùn)練成本已攀升至超過1億美元
到了2026年,頭部模型的單次訓(xùn)練投入已突破10億美元門檻
另一方面,推理成本仍在按摩爾定律的節(jié)奏下降。NVIDIA Blackwell平臺比上一代Hopper的推理效率提升10倍,Vera Rubin平臺承諾再降10倍。
但是,推理成本下降的速度,遠跟不上Token消耗量增長的速度。Reasoning模型(GPT的o1、o3、DeepSeek-R1等)是2025-2026年最火熱的AI產(chǎn)品形態(tài)。但這類模型的Token消耗量是普通對話的50-600倍。
大模型的每次推理,都是一次制造行為。
Token是什么
Token的中文叫做「詞元」,從字面意義來看,好像就是將文本切分后的最小單位。輸入你好,可能被切成2個Token。給AI一篇文章,可能是幾百甚至幾千個Token。
但我們穿透表面,Token的真正含義其實是被量化的算力、被量化的電力、被量化的GPU折舊。
![]()
理解AI是電力,對于產(chǎn)業(yè)分析與投資決策具有深遠影響:
AI公司的估值邏輯不應(yīng)當參考軟件公司。傳統(tǒng)SaaS用「ARR×倍數(shù)」來估值,但AI公司需要考慮算力成本的剛性與Token消耗的不確定性。如果公司的收入增長來自重度用戶的算力消耗而非付費意愿的提升,增長可能是陷阱。
商業(yè)模式需要重新設(shè)計。「包月無限用」的訂閱模式在AI領(lǐng)域是商業(yè)自殺。按Token消耗的「用多少付多少」才是符合成本結(jié)構(gòu)的定價方式,但這個和原本的包月模式產(chǎn)生的差異,會讓個人用戶接受度降低。
AI產(chǎn)業(yè)的上游,芯片、算力、能源這些產(chǎn)業(yè)才是真正的利潤中心。
NVDIA一直在用「五層蛋糕理論」來拆分整個AI產(chǎn)業(yè),那這個里面分別包含怎樣的極潤分配和行業(yè)定位呢。
AI行業(yè)的五層蛋糕
黃仁勛去年在某次采訪中,把AI產(chǎn)業(yè)描述成一塊五層蛋糕,今年3月,NV的網(wǎng)站上也是刊登出來這篇文章。
https://blogs.nvidia.cn/blog/ai-5-layer-cake/
![]()
每一層都對應(yīng)著不同的價值創(chuàng)造環(huán)節(jié)、不同的成本結(jié)構(gòu)、以及截然不同的利潤分配格局。
L1 能源:沉默的定價者
每一行代碼的執(zhí)行,都是電子的流動。GPU運轉(zhuǎn)需要電力,冷卻系統(tǒng)需要電力,網(wǎng)絡(luò)傳輸需要電力,數(shù)據(jù)中心的每一個角落都離不開能源。
當我們focus在NVIDIA的GPU定價權(quán)、OpenAI的收入增長時,一個更底層的需求是電力,作為整個AI產(chǎn)業(yè)最上游的「原材料」,而它的價格正在被重估。
2026年,全球AI數(shù)據(jù)中心的電力消耗已占全球用電量的3%以上。這個數(shù)字在2024年還不到1%。美國弗吉尼亞州(全球最大的數(shù)據(jù)中心集群之一)的電網(wǎng)已經(jīng)出現(xiàn)局部緊張,多個州開始討論為AI數(shù)據(jù)中心建設(shè)專用電網(wǎng)。
能源層正在從成本項轉(zhuǎn)變?yōu)閼?zhàn)略資源。微軟、Google、AWS都在大規(guī)模投資核電和可再生能源項目,不只是為了ESG形象,而是為了鎖定未來的電力供應(yīng)。當能源成為稀缺資源時,能源的擁有者將擁有新的定價權(quán)。
L2 芯片:NVIDIA的王者護城河
無論AI應(yīng)用如何風(fēng)起云涌,無論哪家大模型最終勝出,有一件事是確定的,它們都需要芯片。而芯片的定價權(quán),牢牢掌握在少數(shù)幾家廠商手中。 代表選手就是NVIDIA,以及背后的臺積電、三星
NVIDIA的毛利率常年維持在75%以上。這是什么概念?消費電子領(lǐng)域的蘋果,毛利率約為46%;企業(yè)軟件領(lǐng)域的Oracle,毛利率約為74%;即便是被公認為暴利的SaaS行業(yè),平均毛利率也只有80%左右。
NVIDIA比大多數(shù)軟件公司還賺錢,因為它處在整個價值鏈的最上游,擁有最穩(wěn)固的定價權(quán)。NVIDIA不僅僅賣硬件,還構(gòu)建了CUDA生態(tài)。
全球數(shù)百萬開發(fā)者在CUDA框架上編寫代碼、培訓(xùn)模型、優(yōu)化應(yīng)用。這種生態(tài)鎖定意味著,即使競爭對手在硬件性能上迎頭趕上,轉(zhuǎn)換成本也是重要的障礙。
公司
毛利率
年收入
定價權(quán)評估
NVIDIA
>75%
~2000億美元
極強
大模型廠商(平均)
<40%
頭部數(shù)百億美元
AI應(yīng)用廠商(平均)
虧損
不等
極弱
所以某種程度上, DeepSeek-V4華為昇騰首發(fā),意味著 模型廠商開始具備脫離單一算力生態(tài)的可能性。
L3 基礎(chǔ)設(shè)施:資本密集型產(chǎn)業(yè)
基礎(chǔ)設(shè)施層指的是 AWS、Azure、阿里云、百度智能云、Google Cloud為代表的云廠商,他們的運行模式基礎(chǔ)是, 誰掌握了AI算力的「配送網(wǎng)絡(luò)」,誰就掌握了中間層的定價權(quán)。
我們可以把云廠商看做地產(chǎn)商,它們建樓、提供水電接入,然后向入駐企業(yè)收取租金。
AWS在全球擁有32個區(qū)域、102個可用區(qū);阿里云在中國運營著規(guī)模最大的云計算基礎(chǔ)設(shè)施;Google Cloud的AI工廠正在服務(wù)于下一代模型訓(xùn)練。
相比NVIDIA 75%的毛利率,云廠商需要承擔(dān)服務(wù)器折舊、機房租賃、帶寬成本、人力運維等多重支出。因此,它們更像是喝湯,比模型層過得好,但比芯片層差得遠。
尤其是在過去云計算越用越便宜的場景下,2026年許多云廠商提出算力漲價,就體現(xiàn)出壓力的存在 。
L4 模型:夾心餅干的困境
模型層是我們最普通概念里的AI,它是整個AI產(chǎn)業(yè)的技術(shù)中樞,聚集了最多的頂尖人才、燒掉了最多的資本、也承受著最沉重的成本壓力。 代表選手包括我們熟知的OpenAI、Anthropic、Google Gemini
2026年,OpenAI與Anthropic的合計ARR已突破550億美元,聽起來是個驚人的數(shù)字。但如果我們細看成本結(jié)構(gòu),就會發(fā)現(xiàn)這筆錢并沒有想象中那么好賺。
OpenAI 2025年的推理成本高達84億美元,占營收的47%。Anthropic雖然增長迅猛,ARR飆升至300億美元,毛利率也只有40%,低于目標10個百分點。
為什么基礎(chǔ)模型層這么苦?因為每次模型升級,都需要重新訓(xùn)練,這是一次性的大額資本支出。同時,每次用戶調(diào)用,都需要推理,這是不隨規(guī)模增長的持續(xù)運營成本。當用戶量增加時,推理成本線性上升,但價格競爭卻不允許同步提價。
其次,我們剛剛提到的悖論之一,Token單價每年下降約10倍,但Token消耗量增長得更快。數(shù)學(xué)上對模型廠商天生不利,收入增長跑不贏成本增長。
最后就是上游是NVIDIA的強勢定價(芯片層的75%毛利率是鐵板一塊),下游是用戶與競爭對手的雙重價格壓制(Claude的200美元無限用套餐說廢就廢)。模型層被卡在中間,既沒有芯片層的定價權(quán),也沒有應(yīng)用層的差異化空間。
L5 應(yīng)用:最卷的生存競爭
應(yīng)用層是整個AI產(chǎn)業(yè)金字塔的最頂層,也是最卷的一個層面。應(yīng)用層可以分為兩類:
一、垂直行業(yè)解決方案
一種是AI編程工具的商業(yè)模式已經(jīng)跑通,因為它替代的是年薪數(shù)十萬美元的高級程序員。另一種是to B的業(yè)務(wù)模式,一些制造企業(yè),比如美的集團AI應(yīng)用累計節(jié)約成本7億元人民幣,生產(chǎn)效率提升80%,排產(chǎn)響應(yīng)速度提升90%。
![]()
這些應(yīng)用的共同特點是利用AI替代的是昂貴的人力。當AI能夠替代年薪百萬的律師、金融分析師和工程師時,用戶愿意支付的價格足以覆蓋Token消耗。
二、套殼應(yīng)用
2024-2025年涌現(xiàn)大量Midjourney/Stable Diffusion AI繪畫套殼應(yīng)用,很多都沒有能夠活下來。
這些應(yīng)用天然缺乏護城河,因為本質(zhì)上它表演的是融合和通道的角色。這種基于通用API開發(fā)的應(yīng)用,都面臨同質(zhì)化競爭。
而且, 國內(nèi)AI應(yīng)用市場特點是大廠免費補貼(豆包、千問、DeepSeek都是免費或極低價),所以基于模型層開發(fā)的應(yīng)用,很難建立付費習(xí)慣。因此很多根本沒起來就消失了。
但這兩個場景,都會面臨運營的脆弱性。我們可以做一個具體的商業(yè)推演。假設(shè)有一款A(yù)I產(chǎn)品叫做專業(yè)級財報分析助手,我們給他們的定價為固定包月訂閱,20元/月。
這個應(yīng)用的成本是向L4/L3(OpenAI API + 阿里云)按Token計費支付推理成本。20元的訂閱費用于來覆蓋輕度用戶的Token消耗,薄利多銷。
什么時候這個應(yīng)用會做不下去呢,就是發(fā)生在產(chǎn)品獲得成功之后,也就是獲取高粘性專業(yè)用戶之時。
我們可以對用戶進行畫像
![]()
重度專業(yè)用戶可能是券商分析師每天處理幾十家公司的財報,投顧用于為客戶準備盡調(diào)報告,或者機構(gòu)投資者構(gòu)建量化因子數(shù)據(jù)庫
這類用戶的特征是高價值、高粘性、高消耗。他們愿意付錢,他們用得越多越離不開產(chǎn)品,聽起來是最理想的客戶畫像。
但對供應(yīng)商而言,這些最理想的客戶反而是風(fēng)險最大的客戶。因為重度用戶用的越多,應(yīng)用的成本越高。
他們可以不斷地定高價來覆蓋成本,但用戶也會不斷流失到定價更低的競品去,所以他們沒法實現(xiàn)高利潤率,又要不斷建立護城河。
而當它試圖限制用量時,用戶會給出功能閹割的差評。
這是什么啊,這就是一根筋變成兩頭堵了。
因此,NV描述的五層蛋糕,不一個均勻分布的產(chǎn)業(yè),而是一個金字塔。越往上游,壁壘越高,利潤越豐厚;越往下游,競爭越激烈,利潤越微薄。
![]()
Token經(jīng)濟學(xué)帶來的投資端的啟示
從剛剛討論的內(nèi)容,我們可以試著引申在投資方面可以投資的三個方向
上游賣鏟人
在AI產(chǎn)業(yè)的價值鏈中,越靠近上游,定價權(quán)越穩(wěn)固。NVIDIA之所以能維持75%以上的毛利率,是因為無論下游的模型如何迭代、應(yīng)用如何風(fēng)起云涌,芯片始終是不可替代的基礎(chǔ)設(shè)施。
同樣的邏輯也適用于能源,當AI數(shù)據(jù)中心的電力消耗占全球用電量3%以上時,電力供應(yīng)本身就成為戰(zhàn)略資源。
投資上游的本質(zhì),是押注「稀缺性」。在需求爆發(fā)而供給有限的環(huán)節(jié),利潤必然向這里集中。
芯片代工、HBM存儲、數(shù)據(jù)中心專用電網(wǎng),都是這條邏輯的延伸。
垂直領(lǐng)域數(shù)據(jù)壁壘
通用AI的能力正在快速普及,真正的差異化來自行業(yè)專有數(shù)據(jù)。 在通用能力商品化的時代,行業(yè)Know-how才是稀缺品。
醫(yī)療AI需要醫(yī)院授權(quán)的脫敏病例,工業(yè)AI需要工廠多年積累的生產(chǎn)參數(shù),法律AI需要海量判例庫。這些數(shù)據(jù)無法用錢買到,需要時間、關(guān)系和資質(zhì)。
當一個垂直應(yīng)用的護城河建立在競品即使拿到相同資金,也需要時間積累才能追平的基礎(chǔ)上,這條護城河就是有效的。投資垂直的本質(zhì),是押注時間壁壘。
效率提升的技術(shù)
Token成本的下降是確定性趨勢,能最早推動這場下降的企業(yè),能在價值鏈中占據(jù)有利位置。
幾個可能的發(fā)展方向包括:端側(cè)推理將計算從云端分流到本地設(shè)備,定制芯片用專用架構(gòu)打破通用GPU的定價權(quán),推理優(yōu)化技術(shù)讓同等算力產(chǎn)出更多Token。
這些都是在做同一件事,讓Token變得更便宜,對應(yīng)到國內(nèi)的芯片,DeepSeek鏈等。投降本的本質(zhì),是押注普惠化。就像光伏產(chǎn)業(yè)中,最終成為最大贏家的不是某個光伏電站運營商,而是那些讓發(fā)電成本不斷下降的技術(shù)供應(yīng)商。
策略
核心邏輯
代表標的
投上游
NVIDIA、芯片代工廠、電力基礎(chǔ)設(shè)施
賣鏟人邏輯
投垂直
醫(yī)療AI、工業(yè)AI、精密制造
數(shù)據(jù)壁壘邏輯
投降本
推理優(yōu)化、端側(cè)芯片、新型架構(gòu)
效率提升邏輯
總結(jié)
回到文章開頭那個場景。
2025年初,那些部署內(nèi)部AI助手的公司,錯了嗎?從擁抱新技術(shù)的角度看,沒有錯。從商業(yè)邏輯的角度看,大概率是錯的。
這些領(lǐng)導(dǎo)有一個認知錯誤,那就是把AI當成了買來就用的工具,而沒有想清楚這臺機器能產(chǎn)出什么。
這完全不是一個正常的企業(yè)經(jīng)營思路。
一家企業(yè)購買機床時,不會只問這機器多少錢,而是問這臺機床能生產(chǎn)多少產(chǎn)品、能帶來多少產(chǎn)值。
AI也是一樣的道理,Token是數(shù)字電力,但Token本身不是價值。Token驅(qū)動的大模型推理,只有在解決具體業(yè)務(wù)問題、創(chuàng)造真實經(jīng)濟價值時,才有意義。
一百多年前,電力剛進入工廠時,許多企業(yè)主會有這樣的困惑,為什么交了電費賬單,工廠的利潤沒有自動增長?
答案在我們目前看來似乎很簡單,電力是動力來源,但不是價值來源。但當時需要花一定時間才能理解。
AI給我們帶來的,也是新的基礎(chǔ)設(shè)施的變革。
本文數(shù)據(jù)來源:
清華大學(xué)《Token經(jīng)濟學(xué)全景報告2026》
OpenAI財務(wù)披露(2026年2月)
Anthropic G輪融資披露(2026年4月)
國家數(shù)據(jù)局Token調(diào)用量數(shù)據(jù)(2026年4月)
NVIDIA五層蛋糕理論(https://blogs.nvidia.cn/blog/ai-5-layer-cake/)
NVIDIA推理經(jīng)濟學(xué)理論( https://blogs.nvidia.cn/blog/ai-inference-economics/)
整理時間:2026年4月26日
![]()
作者:坦桑尼亞老云 | 編輯:栗加
每個視角都是拼湊世界真相的碎片,聽真誠的行業(yè)觀察者講述獨特的故事。我們有深耕行業(yè)的資深顧問,連續(xù)跨界探索的未來創(chuàng)業(yè)者,專注細節(jié)的產(chǎn)品匠人,和許多志同道合的你們,如果你有想要分享的故事或者感想,可以留言或者郵件聯(lián)系(AiysJY@outlook.com),也歡迎點分享給需要的朋友們,記得點一下在看和星標,期待共同在這個行業(yè)的宏大敘事中,留下一句詩。:)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.