親愛滴小伙伴們
最近微信又改版啦
邀請大家動動手指
把圈主設為星標
這樣就不會錯過我們的精彩推送了
![]()
2025-7-22 15:30-16:30
直播嘉賓:
李星全 國泰基金量化投資部ETF研究員
摘 要
基本面來看,近幾年大模型迅速進化,在變得越來越智能的同時,也在往多模態方向發展,應用場景不斷拓寬,用戶數量迅速增長。而大模型相關的訓練以及推理的需求落到硬件上還是要靠AI服務器支撐,算力板塊也正在呈現高速的增長。
從算力端來看,Blackwell架構的芯片已經開始迅速起量,成為新一代主導產品,而Blackwell芯片的放量對于人工智能的投資機會非常重要。推理的算力需求正在快速地增長,Blackwell芯片能有效使得算力的性價比快速提升,也對迅速打開市場空間比較有利。
從產業鏈拆解來看,現在在英偉達的產業鏈上,在PCB、光模塊以及服務器ODM這些環節,A股公司比較有競爭力,這些環節也就跟英偉達本身的景氣度高度強相關,帶來比較強的確定性。在AI服務器里面的PCB用量大,比較高規格的甚至要達到30層以上,AI服務器成長對于產業鏈上的PCB公司來說也有較大的景氣提升。而光模塊在集群里面占據了必要且核心的位置,受益于GPU量的成長,以及網絡升級帶來的技術密集度提高,光模塊總體上也是量價齊升的。
國內AI領域方面,美國對華制裁在2023年以來都是趨緊的,國內的算力硬件的供給還是存在比較大瓶頸。但是國內公司也在不斷地克服困難,推出有影響力、可以在全球AI領域躋身第一梯隊的大模型,國產算力的發展機會也是比較大的。此外,國內的GPU市場規模據估算可達千億,相比較而言,現在國內國產的GPU公司收入體量還是比較小的,如果往后國產的算力去進行更多自主可控的話,這個空間也是比較大的。
下半年如何布局AI行情?通信ETF(515880)光模塊、服務器ODM加銅連接的占比超過60%,光模塊占比超40%,業績確定性比較強,從4月份看到現在的走勢是比較好的。創業板人工智能ETF國泰(159388)光模塊占比也較高,具備高彈性的特點。而信創ETF(159537)涵蓋了在信創產業鏈上的很多個股,比如GPU設計、制造等公司,隨國產算力發展或有比較好的前景。
正 文
李星全:今天給大家介紹一下AI產業鏈的價值解碼,順著AI剖析一下產業鏈各個環節的發展,并給出相關的投資建議。
一
模型端:大模型技術發展持續,行業基本面向好
首先是行業基本面的介紹,大模型這幾年進化迅速,有一篇論文叫《Scaling Laws for Neural Language Models》,研究者驗證之后發現模型的損失和計算量、數據級規模以及參數規模三個變量強相關,在其中兩個變量恒定的情況下,模型的損失和另外一個變量的關系是冪的關系,這個結論后來被人們稱為縮放定律。
在縮放定律的指引下,如果我們能夠不斷地增加模型的規模,能夠喂給它越來越多的語料進行訓練,理論上模型的性能有可能得到持續的提升。另外,在論文里研究者還提出了一個有意思的點,一開始模型規模在提升的時候,這個模型的準確度只是在緩慢提升,但是到了一定的閾值之后,這個準確度馬上就開始直線拉升,這被稱為模型涌現,相關跡象表明AI有了較大的商業應用潛能。海外咨詢機構SemiAnalysis研究了GPT4的進化歷程之后,發現GPT沿著算法改進和優化的趨勢,每次迭代會使它的成本降低10倍,同時性能也有可能提升10倍左右。
接下來復盤一下大模型和OpenAI的發展歷程。OpenAI的成長歷史并不算特別長,但是如今已經成為一家全世界矚目的科技界獨角獸公司了。2017年是人工智能領域重要的分水嶺,這一年谷歌發布了一篇重磅的論文《Attention is All You Need》,這篇論文提出了一個非常有創造力的東西,就是自注意力機制以及Transformer架構。在當時發布的時候,可能包括谷歌自己的研究員都沒有意識到這個架構可能會在幾年之后成為主導人工智能領域發展的重要基石。
2018年,GPT第一個版本發布了,它是基于Transformer架構演化出來的第一個大模型。2019年GPT迭代到第二代,GPT2的參數量大約有15億,它已經可以執行一些相對簡單的任務。到GPT3,它的參數量已經達到了1750億,它的生成能力也已經擴展到了創意寫作、編程等,大模型路線相對于當時人工智能領域的其他技術路線也展露出一定的潛能。
大模型路線正式宣告其在AI領域的主導地位則要到ChatGPT的發布,GPT3.5是在GPT3的架構上進一步研發的,只不過它在訓練和微調方面做了一些改進。通過這樣一些技術改進,GPT3.5模型的性能得到了較為明顯的提升,包括生成能力、智能性、減少幻覺等。2023年GPT3.5模型馬上在全球范圍開始風靡,也引發了這兩年AI比較大的行情。
2024年,OpenAI發布了o1模型,這是一次技術上的里程碑,可以視作推理階段的延續。o1開創性地采用了「長鏈思維」進行思考,比如說問它什么問題,它就會把這個問題拆解成無數個小問題,一步一步思考,這種思維鏈的方式也被其他的公司學習和繼承。
二
算力發展:Blackwell芯片放量推動產業鏈發展
現在的大模型確實變得越來越智能,同時也在往多模態方向上發展,應用場景也不斷拓寬,用戶數量迅速增長,相關的訓練以及推理的需求呈現高速增長。而算力的需求落到硬件上還是要靠AI服務器支撐。摩根士丹利有一個報告,英偉達最新一代AI服務器GB200 NVL72的拆解里面,一個72卡的機架價格達到了300萬美金左右,其中GPU的價值量達到了216萬美金,約占72%。我們也關注到英偉達的毛利率、凈利率均較高。英偉達在短短的兩三年里,它的收入跟利潤呈現如此高速的增長,讓英偉達快速地成為全球市值第一的龍頭,說明AI對于它的成長的拉動性很大。(注:提及個股不作為推薦,下同)
從英偉達的硬件去看,因為它在GPU領域差不多有90%以上的份額,所以英偉達自身的技術迭代也就基本意味著AI硬件側的進化歷程。英偉達現在的產品迭代周期基本上是一年一迭代,目前Blackwell架構的芯片已經開始迅速起量,成為新一代主導產品。
2023年人工智能剛剛開始爆火的時候,當時英偉達的主打產品還是上一代的芯片H100。在3月份大模型爆火之后,英偉達GPU馬上就成為了稀缺產品。2023年下半年,GPU相關的收入、利潤等也開始迅速成長起來。現在跟當時非常類似,也就是硬件迭代了一代,Blackwell現在已經成為主導產品。5月份法說會上透露的是GB200 NVL72機架超大規模客戶周均部署達到了1000臺機柜左右,并且規模有進一步放大的趨勢。所謂的超大規模客戶是指北美的那幾家云廠商,一臺有72張卡,每周1000臺的話就是7萬多張,價格是比較貴的,英偉達通過自身的GPU成長帶動了全產業鏈上的成長。
為什么Blackwell芯片的放量對于人工智能的投資機會這么重要?首先,現在跟以前的人工智能發展階段略有不同,在2023年、2024年海內外廠商都在急于訓練自己的大模型,推出一些智能水平更高的模型,所以當時算力需求的增長主要是由訓練算力主導的。但是越往后,不管是國內的還是海外的云廠商,他們對于算力的投入都是希望能收回一些成本,在模型訓練完之后也希望在用戶端能夠得到一個比較好的產品體驗。現在用戶端的應用場景正在迅速打開,推理的算力需求正在快速地增長,推理相比訓練而言,它對于精度的敏感性更低,Blackwell比起上一代芯片,它推出了一種更低精度的數據格式FP4,FP4數據精度格式推出來以后,相關的算法可能還需要一段時間適應,但是我們確實看到了應用的潛力,尤其是在對數據精度敏感性不太高的應用場景上。
在英偉達法說會和去年GTC大會上就提到過,以FP4的精度去看,Blackwell單位每元可以提供的算力在特定場景下比H100提高大約237%的極限值,Blackwell的發布讓算力的性價比正在快速地提升,同時也有利于迅速打開推理的市場空間,推動人工智能快速發展。
三
產業鏈拆解:關注PCB、光模塊、服務器ODM機會
![]()
這是對算力產業鏈的簡單示意圖,流程上,英偉達先設計GPU,接著委托臺積電做制造和封裝測試,然后交給下游的ODM廠商做成一個基板,在這個基礎上進一步把它組裝成服務器,再把服務器轉交給下游的云廠商,這些云廠商可能在進行組網的時候也需要購買交換機。
在這個產業鏈中,設計主要是由英偉達自己完成的,制造由中國臺灣的臺積電完成。其中用到的PCB包括A股的幾家PCB龍頭公司以及臺股的PCB龍頭公司,服務器ODM主要是由工業互聯、廣達電腦、偉創、英業達等公司進行組裝,到客戶端下游的云廠商,主要是北美幾家較大的云廠商,包括亞馬遜、谷歌、微軟、META等等。在英偉達的產業鏈上,IC設計、IC制造等方面A股公司的參與程度是比較低的,而在以下環節占有較高的份額,自然這些環節也就跟英偉達本身的景氣度高度強相關。
第一個是PCB,因為A股很多公司比較有競爭力,他們在AI還沒有興起之前就有比較大的優勢。另一個是光模塊,光模塊屬于英偉達AI需求起來以后形成的針對性成長領域。第三個是服務器ODM,也就是組裝AI服務器,它的利潤可能也會比組裝傳統的通用服務器更高一點。這里面我們重點聊一下PCB和光模塊的機會。
(一)PCB:電子元器件之母,AI服務器和交換機的必備器件
PCB是印刷電路板,在服務器這種應用場景中,它對于電路的要求是比較復雜的,它的空間又很有限,不可能用電線連,所以經過一些技術的迭代,我們可以把電路打在一塊板子上,這時候只需要一些引入的接口和引出的接口,這個電路就可以用了,這就是PCB最基礎的概念。大家如果有拆過家里的收音機、鬧鐘的話,其實可以發現里面有PCB。
但英偉達的PCB和我們家里面用的有很大區別,AI服務器里的PCB基本上都是在22層以上,比較高規格的能夠到30層以上,材料現在也用到了覆銅板,所以它的價值量是比較高的,貴的能達到幾萬塊錢一平方米,用量也比較大,AI服務器的成長對于產業鏈上的PCB公司來說也有了較大的景氣提升。PCB之前有過幾次產業鏈的轉移,一開始是從美國轉移到了日韓,進一步轉移到中國臺灣,后面大陸的公司逐漸崛起,創造了全球比較大的PCB份額,我們在技術、份額方面都是比較領先的,這是一個很好的賽道。
(二)光模塊:用于大型網絡連接,AI服務器帶動光模塊起量
再看光模塊,因為現在的大模型規模比較大,進行大模型的訓練和推理不可能依靠一臺服務器或者一張GPU就能夠完成。即使GPU再先進,它顯然都承受不起這么大規模的運算量,我們就可以把GPU進一步組裝成更大的集群,大模型運算的任務就可以分割成無數個小任務,分發到每一張GPU上,分別進行運算,最后通過各種各樣的運算得到結果并匯總。
現在數據中心的組網也比較復雜,我們用的AI集群里面最簡單的要求就是任意兩個GPU之間或者服務器之間必須得有一條通路,這樣才能夠滿足數據交換,可以看一下示意圖,其中紅色部分是GPU,上面有一層交換機,分別把GPU連起來,連成一個小的集群,再由上面的交換機把各交換機連接起來,這樣下面的GPU可以連成一個集群,如果還要進一步擴展GPU的規模,就可以在上面再加第三層交換機,叫作核心交換機,這樣就可以把GPU連成一個比較大的集群。
![]()
在這其中,光模塊的作用是什么?數據中心信號的頻率是比較快的,傳輸的速率也很快,在這個時候如果還用傳統的銅纜進行長距離信號的傳遞,這個電流會有一個趨膚效應,這些信號在傳輸的過程中集中在導體的表面,傳輸不均勻,這就會引發發熱、信號的損耗等問題,導致最后數據包丟失等比較嚴重的后果,訓練和推理的效率就會下降得非常快,所以在傳輸的過程中必須用光進行長距離的傳輸。
如果距離比較長的話,怎么用光傳輸?信號從交換機出來以后需要用一個光模塊把電信號轉化成光信號,傳輸到另一端之后又把光信號轉化為電信號進行進一步的數據處理,光電轉換的任務就是由光模塊來做的。為什么要轉化成電信號?因為現在光信號是沒有辦法進行數據處理的。所以光模塊在集群里面占據了必要且核心的位置。A股公司也在光模塊領域的技術領域、產能方面全球有一個比較大的優勢,在北美的云廠商定制芯片里面都有比較大的份額。
在英偉達GPU進化的過程里,對于網絡的要求也變得越來越高,英偉達的上上代A100芯片,它的網絡通信速率大概是200G,因為配套的是200G網卡,在英偉達H100芯片里面,它的網絡通信速率已經到達了400G,當時用的主要光模塊是400G和800G,到GB200后,網絡的通信速率到達了800G,也就是說現在在這個網絡里用到的光模塊必須得是800G以上,甚至是1.6T的光模塊。因為它可以向下兼容,一個1.6T的光模塊相當于兩個800G的光模塊,所以整體來看光模塊一方面是受益于英偉達的GPU量的成長,另一方面從200G到400G、800G,再到1.6T,后面可能還會再到3.2T,技術密集度也在提高,所以總體上光模塊也是量價齊升的。
對于剛提到過的PCB也是同樣的狀況,網絡升級后對于PCB的傳輸、速率的要求都是更高的,所以PCB的量和價都在快速地上升。自從二季度英偉達的GB200快速放量以來,國內的光模塊廠商、PCB公司以及服務器ODM的業績增長是快的,我們也比較看好業績的中長期景氣度。
根據研究機構的測算,在組建三層網絡的時候,GPU和光模塊的比大概是1:3.5,也就是一張GPU需要用到3.5個光模塊,之所以比例會略低,是因為它是以Blackwell進行測算的,里面用到了1.6T的光模塊,如果全部用800G的,這個比例會進一步上升。光模塊和PCB的業績確定性是很強的,需求也是比較明確的,只要英偉達的卡可以放量,下游的廠商買了卡以后要組建一個大規模的集群。在組建集群的時候,所用到的光模塊、服務器交換機以及光模塊里面的PCB的量都是在上升的。
2023年一季度,英偉達大模型爆發,當時假設下游的廠商馬上找英偉達定制GPU,英偉達又馬上去找臺積電下單GPU,等到臺積電制造以后交到下游客戶的手上,這就至少也到了Q3的末期或者Q4初期。但對于PCB和光模塊廠商來說,它們的生產周期可能沒有半導體芯片那么長。2023年Q3、Q4時,英偉達GPU放量,可以看到前十家PCB和光模塊公司利潤和收入增速在當時的成長性已經明顯,與之相對,在2023年Q1時,相關領域的公司其實對于景氣度沒有特別大的信心,可能當時大家沒有想到AI能夠引起這么大的產業趨勢。
我們如果要去篩選相關的投資品,還是要在光模塊、PCB、服務器ODM領域篩選,但是一些主流人工智能指數對于PCB的持倉都是相對比較少的,對光模塊的關注度就需要額外給高一點。但是我們這里也需要注意到兩者之間的關系,英偉達GPU卡下面必須有一塊大的PCB,一般叫作OAM,這個PCB放在服務器里面還需要一個比較大的主板,這個主板的形態有些變化,但是總體的需求還是有的。另一個是交換機里面需要用到比較高規格的PCB,光模塊里面也需要用到PCB,這幾個PCB的價格都比較高,用到PCB的就是這幾個領域。只要涉及到光電轉換環節都需要用到光模塊,所以PCB和光模塊之間有一個比較強的映射作用,這跟服務器的ODM也一樣,當一個環節的景氣度比較高的時候,另外的環節都不會特別差,大家也可以復盤一下歷史上的業績表現,當某個環節利潤出現特別大增長的時候,比如光模塊特別好的時候,PCB的增速也是比較明確的。在申萬分類里,光模塊屬于通信設備,如果從這個占比去看,與其他主流指數相比,創業板人工智能ETF(159388)的光模塊占比是比較高的。
![]()
數據來源:wind,中證指數公司官網,圖中wind行業權重為指數權重與wind相關概念重合的個股權重之和(截至6月30日)風險提示:數據和來源可能隨市場變化
四
國內大模型競爭力強,國產算力或有空間
之前美國在2018年、2019年還在制裁我們國家的通信,比如5G、上游半導體設備材料等等,自2023年以來制裁的重心轉向了AI,我們國內購買英偉達卡還是會有較多的限制。
在算力方面,我們硬件的供應也相對匱乏。上一代英偉達本來在賣H100芯片,因為制裁就推出了像H800這樣在算力、通訊方面做了一些衰減的芯片,后面發現H800系列也賣不了,就又推出了H20系列,但在上個季度又遭到了美國的制裁,最近幾天有新聞說H20又可以繼續賣了,總體來說國內算力硬件的供給還是存在較大瓶頸的。
但是即便如此,國內的公司也在不斷地克服各種各樣的困難,推出自己有較大競爭力的大模型,不管是阿里的通義千問或者DeepSeek,都發布了一些比較有影響力的模型,可以在全球AI領域躋身到全球第一梯隊。由于國內關于AI的技術和經驗的積累,我們的實力相對于其他國家是很有競爭力的,只是現在算力方面還是有一些欠缺,我們覺得國產算力也可能迎來比較大的發展機會,市場空間還是比較大的。
DeepSeek R1發布時,在全球引發了一場比較大的討論,也讓英偉達產生了較大的恐慌,當時大家覺得如果國內在沒有算力的情況下也能夠訓練出像DeepSeek R1這么優秀的模型,那么是不是大模型就證偽了?后面的Scaling laws是不是也就持續不下去了?實際上從事后的角度來看并非如此,比如馬斯克前幾天發布的Grok4,其實海外的廠商還是在延續Scaling laws的指導去不斷地訓練自己的模型,通過這個形式讓模型的智能度提升。國內之前在這方面一直面臨較多的瓶頸,所以如果相關的算力供給能夠緩解的話,其實Scaling laws在國內還是會有較大的應用空間。
國內的GPU市場規模能夠到達多少?英偉達在一季度法說會上有過相關的表述,當時因為美國政府發布了H20的禁令,需要在一季度的時候計提45億美金左右的費用,并且預計第二季度還要進一步計提80億美金的損失,換成人民幣年化已經超過了千億元。也就是說英偉達在中國大陸的GPU收入是超過千億元人民幣的,并且這個市場還有進一步擴大的趨勢。相比較而言,現在國內國產的GPU公司收入體量還是比較小的,如果往后國產的算力去進行更多自主可控的話,這個空間也是比較大的。
最近還有一個趨勢,谷歌在大會上透露,截至2025年4月份,每月調動的tokens已經到達了480萬億,年增差不多到了50倍左右,對于字節而言,到今年5月份日均的tokens使用量也到了16.4萬億,自發布以來成長了137倍。
為什么這個算力的需求會增長得這么迅速?應用的增長也會帶來算力需求的增長。谷歌瀏覽器在全球占有很高的份額,大模型推出來以后,它可以跟瀏覽器做一定的結合,如果每個用瀏覽器的人都能夠使用大模型進行搜索和工作,我們可以大致猜測一下算力增長的程度,后續來看,其實還有很多領域,比如電商、網上教育、各種各樣工作以及生產場景里,相關的結合都可以帶來算力需求的快速增長,不管是國內還是海外。
各地政府目前都在快速興建算力中心,在這些算力中心里面,因為還是會涉及到一些數據保密的因素,所以國產化率會比互聯網的要求更高一點,國產GPU卡也就有一個比較大的發展空間。從資本開支來看,國內海外相關的資本開支增速都是很高的,海外的四家云廠商(微軟、亞馬遜、META、谷歌)一季度的總資本開支達到了700多億美金,同比增長了64%,年化接近3000億美金,這個規模是非常大的。這些資本開支里面,絕大部分的花費還是來自于數據中心里面的算力基建投入。2024年國內三大運營商的資本開支也超過3000億,BAT三家公司的總資本開支超過了1500億元,相關的增長都比較高。
從現在整個產業鏈上去看,算力以及人工智能產業趨勢是比較明確的,不管是國內還是海外,最頭部的科技公司不管是做互聯網的,還是做手機、硬件的,他們都在AI賽道上激進地投入,所以相關的投入也可以為人工智能這個賽道提供最基本的景氣支撐。
從中長期的角度來看,我們可以看到現在下游發展得比較快,比如說AI agent,還有前段時間賣得比較好的小米眼鏡,今年以來一直比較火的人形機器人、智能駕駛等領域,都可以看出AI其實并不止在某個行業形成產品力,而是在各行各業可能都有用武之地。比如說在汽車行業的智能駕駛發展,比如說在消費電子領域可以讓傳統的消費電子終端有一個新的消費形態,甚至創造出新的產品形態迭代掉一些需求,讓市場空間能夠快速增長,相關的AI趨勢和歷史上曾經出現過的機會并不太一樣,這一次可能真的能夠改變工業運行的方式。
五
如何布局AI行情?關注通信ETF(515880)、創業板人工智能ETF(159388)、信創ETF(159537)
下半年如何布局AI行情?從投資品分析,還是要找一些業績確定性比較強的產品。主要是光模塊、服務器等需求比較明確、國內公司比較優質的產品。
比如我們的通信ETF(515880),光模塊、服務器ODM、銅連接這幾項的合計占比超過60%,其中光模塊占比超過了40%。這個產品最近表現較強,因為英偉達GB200放量帶來了全產業鏈高速成長的機會,基本面的改善拉動了通信ETF的成長,60日漲跌幅已經超過了40%,還是建議大家嚴密關注。從今年的走勢來看,截至7月18日,它的收益率差不多接近20%,其中主要是受到了4月份關稅行情的影響,4月份至今的走勢是比較好的,這是因為人工智能的基本面以及這個產業的趨勢還是值得長期看好的。
創業板人工智能ETF(159388)也是一個比較優質的產品,里面的光模塊占比也是比較高的,我們前面做過指數的統計,創業板人工智能的通信設備占比達到了37.5%,里面大部分都是光模塊,所以創業板人工智能ETF的投資價值也是比較強的。
這兩者相較而言,可能通信ETF業績層面會更強一點,而人工智能這個賽道非常熱門,投資的情緒比較火熱,由于創業板人工智能ETF國泰的彈性會更高,在情緒好的時候走勢會更強一點。
信創ETF(159537)主要還是跟著國產算力走,國產算力也是非常重要的行情板塊,因為現在全球都在人工智能領域角逐,我們國內對于人工智能的重視也是非常高的,不管是從國家層面還是從產業層面,所以國產算力也會有一個比較好的前景。信創ETF里面涵蓋了在信創產業鏈上的很多個股,比如GPU的設計、制造以及設備等公司,后面如果國產算力能夠起來的話,相信信創ETF還是會有一個比較不錯的走勢,建議大家多多關注。
今天就這樣,白了個白~
![]()
風險提示
Risk statement
本速評已力求報告內容的客觀、公正,但對這些信息的準確性和完整性不作任何保證,文中的觀點、結論和建議僅供參考,相關觀點不代表任何投資建議或承諾。行業或板塊短期漲跌幅列示僅作為市場行情分析的輔助材料,僅供參考,不構成投資建議或承諾。
我國基金運作時間較短,不能反映股市發展的所有階段。基金管理人承諾以誠實信用、勤勉盡責的原則管理和運用基金資產,但不保證本基金一定盈利,也不保證最低收益。基金的過往業績及其凈值高低并不預示其未來業績表現。基金管理人提醒投資人基金投資的“買者自負”原則,在做出投資決策后,基金運營狀況與基金凈值變化引致的投資風險,由投資人自行負擔。基金有風險,購買過程中應選擇與自己風險識別能力和承受能力相匹配的基金,投資需謹慎。
投資人應當充分了解基金定期定額投資和零存整取等儲蓄方式的區別。定期定額投資是引導投資人進行長期投資、平均投資成本的一種簡單易行的投資方式。但是定期定額投資并不能規避基金投資所固有的風險,不能保證投資人獲得收益,也不是替代儲蓄的等效理財方式。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.