![]()
![]()
在約翰霍普金斯大學(xué)讀本科時(shí),材料科學(xué)專(zhuān)業(yè)的Alex Yeh正在為一件事發(fā)愁:他的計(jì)算材料科學(xué)研究需要GPU來(lái)跑模擬,但學(xué)校的算力資源緊張,他不得不頻繁向生物醫(yī)學(xué)工程系“借”卡,排隊(duì)等待成了日常。
七年后,這位29歲的年輕人剛剛宣布了一項(xiàng)5億美元的投資計(jì)劃——與英偉達(dá)合作,在中國(guó)臺(tái)灣建設(shè)AI Factory,部署萬(wàn)卡級(jí)GPU集群。
從排隊(duì)借卡的學(xué)生到掌握萬(wàn)卡算力的創(chuàng)業(yè)者,Alex Yeh的軌跡,恰好映射出AI產(chǎn)業(yè)權(quán)力結(jié)構(gòu)的一次遷移,當(dāng)所有人都在追逐下一個(gè)殺手級(jí)應(yīng)用時(shí),真正的稀缺資源藏在更底層。
![]()
一個(gè)投資人的"第一性原理"
Alex并非典型的技術(shù)創(chuàng)業(yè)者。他在約翰霍普金斯大學(xué)主修材料科學(xué)與工程,輔修創(chuàng)業(yè)管理,從大學(xué)期間就開(kāi)始接觸風(fēng)險(xiǎn)投資,畢業(yè)后進(jìn)入亞太多家知名私募和風(fēng)投機(jī)構(gòu),專(zhuān)注于AI和新興技術(shù)領(lǐng)域,累計(jì)參與了超過(guò)100個(gè)項(xiàng)目的投資。不到30歲,他已經(jīng)是圈內(nèi)最年輕的合伙人之一。
投資人生涯訓(xùn)練出的核心能力,是一種被他稱(chēng)為"第一性原理"的思維方式:面對(duì)任何市場(chǎng),連續(xù)追問(wèn)五個(gè)“為什么”,層層剝開(kāi),直到觸及那個(gè)不變的底層邏輯。
Alex曾用這套方法論審視過(guò)不同行業(yè)。看養(yǎng)老賽道,不變的是老齡化趨勢(shì);看新興技術(shù)投資,他發(fā)現(xiàn)自己每天都在聽(tīng)AI創(chuàng)業(yè)者的路演,大家都想做AI時(shí)代的Uber或Instagram,卻很少有人愿意去做底層的事情。軟件容易被復(fù)制,但硬件和算力才是真正的硬門(mén)檻。
一個(gè)念頭逐漸變得清晰,與其作為投資人去賭哪個(gè)應(yīng)用會(huì)贏,不如親自下場(chǎng),做那個(gè)無(wú)論誰(shuí)贏都需要的基礎(chǔ)設(shè)施。就像1995年互聯(lián)網(wǎng)剛起步時(shí),沒(méi)有人能預(yù)見(jiàn)20年后會(huì)出現(xiàn)Facebook或阿里巴巴,但可以確定的是,所有的在線業(yè)務(wù)都需要服務(wù)器和帶寬。
在AI這個(gè)瞬息萬(wàn)變的領(lǐng)域,Alex找到的那個(gè)不變量就是GPU算力。
![]()
重資產(chǎn)的"笨"邏輯
2023年,GMI Cloud正式成立,但Alex切入AI基礎(chǔ)設(shè)施的方式與大多數(shù)人想象的不太一樣。
在創(chuàng)業(yè)之前,他已經(jīng)在算力相關(guān)領(lǐng)域有過(guò)探索,積累了數(shù)據(jù)中心選址和電力資源布局的經(jīng)驗(yàn)。這段經(jīng)歷讓他對(duì)這門(mén)生意的本質(zhì)有了不同的理解:大多數(shù)云服務(wù)商本質(zhì)上是“二房東”,租用別人的機(jī)房和設(shè)備再轉(zhuǎn)租出去,而Alex選擇了一條更重的路——從源頭開(kāi)始控制。
他鎖定了大規(guī)模的場(chǎng)地資源和電力供應(yīng),自建數(shù)據(jù)中心,自持核心設(shè)備。這種垂直整合的模式看起來(lái)笨重,資本效率似乎不高,但它解決了一個(gè)關(guān)鍵問(wèn)題:在GPU供應(yīng)緊張的年代,誰(shuí)能控制上游資源,誰(shuí)就掌握了話(huà)語(yǔ)權(quán)。
更重要的是,這種模式讓GMI Cloud能夠觸及底層硬件的優(yōu)化空間。傳統(tǒng)云廠商拿到的是虛擬化之后的算力,很難做深度調(diào)優(yōu),而掌握裸金屬的GMI Cloud可以從芯片、內(nèi)存、網(wǎng)絡(luò)層面進(jìn)行全棧優(yōu)化,把推理效率和成本控制到極致。
公司成立后,Alex迅速組建了核心團(tuán)隊(duì),從谷歌等頂尖科技公司挖來(lái)了關(guān)鍵技術(shù)人才,在多個(gè)國(guó)家和地區(qū)布局?jǐn)?shù)據(jù)中心節(jié)點(diǎn)。
![]()
Alex Yeh在頒獎(jiǎng)現(xiàn)場(chǎng)
![]()
押注“推理時(shí)代”
如果說(shuō)垂直整合是GMI Cloud的底座,那么對(duì)行業(yè)趨勢(shì)的精準(zhǔn)判斷則是這家公司快速崛起的另一個(gè)關(guān)鍵。
早在DeepSeek R1發(fā)布前的五六個(gè)月,Alex就做出了一個(gè)重要決策,公司必須快速開(kāi)發(fā)一套完整的推理引擎框架。
在他看來(lái),AI從訓(xùn)練階段進(jìn)入推理階段是一件清晰且必然的事情。大模型已經(jīng)訓(xùn)練得足夠好用,各種應(yīng)用開(kāi)始落地——航空公司的AI客服可以幫乘客改簽機(jī)票,手機(jī)上的即時(shí)翻譯App已經(jīng)相當(dāng)流暢。當(dāng)模型足夠成熟,下一步必然是大規(guī)模的推理部署,而且需要極低的延遲。
訓(xùn)練和推理的本質(zhì)差異,決定了它們對(duì)基礎(chǔ)設(shè)施的要求完全不同。訓(xùn)練像是系統(tǒng)性的學(xué)習(xí),需要穩(wěn)定的算力集群按部就班地處理海量數(shù)據(jù);推理則像是隨機(jī)考試,要在完成判斷的同時(shí)應(yīng)對(duì)突發(fā)流量、多模態(tài)輸入等復(fù)雜場(chǎng)景。電商大促時(shí)的毫秒級(jí)響應(yīng)需求、工業(yè)質(zhì)檢中的實(shí)時(shí)缺陷識(shí)別,都要求算力基礎(chǔ)設(shè)施具備極高的彈性和響應(yīng)速度。
基于這個(gè)判斷,GMI Cloud為即將上線的推理引擎設(shè)定了三個(gè)核心能力:自動(dòng)擴(kuò)容(Auto Scaling)、全球擴(kuò)容(Global Scaling)和熱切換(Hotswap),并且尤其重視熱切換——在推理階段,機(jī)器宕機(jī)對(duì)客戶(hù)的影響極大,必須確保即便出現(xiàn)故障,也能有機(jī)器快速補(bǔ)位,保證系統(tǒng)的持續(xù)可用。
2025年初,當(dāng)DeepSeek引爆推理需求時(shí),GMI Cloud已經(jīng)準(zhǔn)備就緒。公司在最短時(shí)間內(nèi)完成了基于H200的DeepSeek R1專(zhuān)屬部署和優(yōu)化,Inference Engine平臺(tái)的可用性達(dá)到99.995%。這次未雨綁繆,讓公司在行業(yè)爆發(fā)的窗口期搶占了先機(jī)。
![]()
不只是“賣(mài)鏟子”
在AI創(chuàng)業(yè)圈,“賣(mài)鏟子”是一個(gè)被用濫的比喻,但Alex并不認(rèn)同這個(gè)標(biāo)簽。
GMI Cloud的定位是AI Native Cloud,不是在傳統(tǒng)云上跑AI,而是從底層就為AI場(chǎng)景而生,這與AWS、Azure等超大規(guī)模云廠商形成了本質(zhì)區(qū)別。
首先是位置。傳統(tǒng)云巨頭通常只圍繞幾個(gè)核心大區(qū)提供服務(wù),但在很多特定市場(chǎng),比如東南亞或日本,地區(qū)算力資源覆蓋并不完整,往往需要連接到遠(yuǎn)端節(jié)點(diǎn),在延遲和數(shù)據(jù)合規(guī)上都會(huì)遇到問(wèn)題。GMI Cloud目前在全球多個(gè)地區(qū)部署了多個(gè)節(jié)點(diǎn),能夠更靈活地滿(mǎn)足本地化需求。
其次是服務(wù)深度。在大型云廠商那里,除非是年預(yù)算超過(guò)2,000萬(wàn)美元的大客戶(hù),否則很難獲得專(zhuān)屬的技術(shù)支持。但AI訓(xùn)練過(guò)程極不穩(wěn)定,機(jī)器與模型的綁定非常深,非常需要技術(shù)團(tuán)隊(duì)的深度介入。GMI Cloud能夠提供這種高強(qiáng)度的技術(shù)支持,幫助客戶(hù)優(yōu)化整個(gè)技術(shù)鏈路。
最核心的是產(chǎn)品架構(gòu)。傳統(tǒng)云廠商的底座大多圍繞CPU構(gòu)建,GPU只是其中一部分,而GMI Cloud從一開(kāi)始就定位AI Native Cloud,只用英偉達(dá)的高端芯片,擁有底層硬件的控制權(quán),可以做到裸金屬交付。另外根據(jù)Benchmark數(shù)據(jù),GMI Cloud 的一款MaaS產(chǎn)品 Inference Engine正是因?yàn)樽杂蠫PU資源優(yōu)勢(shì),其API在大語(yǔ)言模型推理方面比原廠模型要快2到3倍,在視頻生成模型上甚至能比原廠快3倍。
Alex用一個(gè)比喻來(lái)描述公司的產(chǎn)品體系:巨石、鵝卵石和沙子。巨石(Rock)是超大規(guī)模集群,服務(wù)于大模型公司的訓(xùn)練需求;鵝卵石(Pebble)是通過(guò)容器化服務(wù),滿(mǎn)足初創(chuàng)企業(yè)靈活、中等規(guī)模的算力需求;沙子(Sand)則是通過(guò)Inference Engine提供API服務(wù),讓開(kāi)發(fā)者能夠隨時(shí)隨地調(diào)用各種模型。三層打通,從萬(wàn)卡集群訓(xùn)練到單次API調(diào)用,提供全棧解決方案。
他還喜歡用“Shopify of AI”來(lái)向投資人解釋公司的定位。Shopify讓任何一個(gè)創(chuàng)業(yè)者都能快速建店,不被電商巨頭綁架。同樣,GMI Cloud希望把算力環(huán)境的自主權(quán)還給客戶(hù),讓他們能夠自由選擇、組合和擴(kuò)展,而不是被鎖定在某一家云廠商的生態(tài)里。
![]()
5億美元的AI Factory
2024年10月,GMI Cloud完成了8,200萬(wàn)美元的A輪融資,獲得了英偉達(dá)NCP認(rèn)證。這個(gè)認(rèn)證目前全球僅有6家公司持有,意味著在GPU供應(yīng)緊張的市場(chǎng)環(huán)境下,公司擁有最高優(yōu)先級(jí)的拿貨權(quán)和原廠技術(shù)支持。
NCP認(rèn)證帶來(lái)的不僅是拿卡優(yōu)勢(shì)。GMI Cloud與英偉達(dá)在研發(fā)層面保持著密切的雙周技術(shù)會(huì)議,在推進(jìn)全亞洲第一個(gè)GB300液冷萬(wàn)卡集群的建設(shè)過(guò)程中,英偉達(dá)的團(tuán)隊(duì)直接介入,協(xié)助調(diào)整參數(shù)和部署方案。這種從底層架構(gòu)到網(wǎng)絡(luò)層面的深度技術(shù)支持,是搞定超大規(guī)模集群的關(guān)鍵。
更大的動(dòng)作是與英偉達(dá)合作的AI Factory項(xiàng)目。這座位于中國(guó)臺(tái)灣的基礎(chǔ)設(shè)施總投資達(dá)5億美元,總功率16兆瓦,搭載96個(gè)高密度GB300 NVL72架構(gòu),內(nèi)置萬(wàn)卡級(jí)Blackwell Ultra GPU,預(yù)計(jì)每秒可處理近200萬(wàn)token。
與傳統(tǒng)數(shù)據(jù)中心不同,AI Factory是專(zhuān)為規(guī)模化AI工作負(fù)載設(shè)計(jì)的,以智能作為產(chǎn)出,以GPU算力作為生產(chǎn)設(shè)備,以數(shù)據(jù)作為輸入。這座工廠將有效打通AI技術(shù)從概念到應(yīng)用的最后一公里。
據(jù)悉,該項(xiàng)目的第一期算力已經(jīng)全部售出,第二期也已有50%被預(yù)定。這背后是當(dāng)前算力市場(chǎng)的真實(shí)供需:盡管芯片產(chǎn)能不再像兩年前那樣極度緊缺,但優(yōu)質(zhì)、可用的集群資源依然稀缺。
![]()
Alex Yeh在頒獎(jiǎng)現(xiàn)場(chǎng)
![]()
下一個(gè)戰(zhàn)場(chǎng)
對(duì)于未來(lái),Alex保持著清醒的危機(jī)感。
很多人認(rèn)為GPU算力最終會(huì)變成像水電煤一樣的大宗商品,屆時(shí)純粹的算力租賃將面臨利潤(rùn)攤薄。Alex并不回避這個(gè)問(wèn)題,但他認(rèn)為至少目前,算力還遠(yuǎn)未商品化。在這個(gè)行業(yè),即使買(mǎi)了GPU,如果網(wǎng)絡(luò)服務(wù)和穩(wěn)定性做不好,客戶(hù)根本沒(méi)法用。機(jī)器壞掉是不會(huì)挑日子的,服務(wù)品質(zhì)和集群穩(wěn)定性本身就是極高的壁壘。
規(guī)模同樣是壁壘。現(xiàn)在能提供8卡、16卡集群的廠商很多,但能提供單一集群2000卡甚至萬(wàn)卡級(jí)別的廠商非常少。隨著模型越來(lái)越大,客戶(hù)對(duì)大規(guī)模集群的需求在增加,行業(yè)正在經(jīng)歷一場(chǎng)去蕪存菁的洗牌。
為了在紅海到來(lái)前建立更深的護(hù)城河,Alex正在做兩件事。一是在全球范圍內(nèi)鎖定2027年的電力資源,電力將是數(shù)據(jù)中心最大的硬約束,公司的規(guī)劃已經(jīng)不是看6個(gè)月后,而是直接對(duì)接電力公司,鎖定未來(lái)的產(chǎn)能。二是持續(xù)構(gòu)建軟件生態(tài),通過(guò)深度優(yōu)化模型,提供比原生平臺(tái)更快、成本更低的推理服務(wù)。
在市場(chǎng)布局上,GMI Cloud采取了差異化策略。公司專(zhuān)注于幫助AI企業(yè)出海,提供落地東南亞、日本和北美的算力支持;在中國(guó)臺(tái)灣,推進(jìn)AI Factory計(jì)劃,服務(wù)本土半導(dǎo)體產(chǎn)業(yè)和政府項(xiàng)目;在日本,已經(jīng)拿下當(dāng)?shù)氐诙箅娏咀鳛榭蛻?hù),組建了本地團(tuán)隊(duì)。
對(duì)于下一輪融資,Alex透露目標(biāo)規(guī)模是2億美元,主要用于AI Factory的建設(shè)和全球擴(kuò)容,將集群規(guī)模在現(xiàn)有基礎(chǔ)上翻兩到三倍。
當(dāng)被問(wèn)及GMI Cloud的終局時(shí),Alex的回答是:不希望只做一個(gè)單純的算力提供商,那樣只會(huì)越做越窄。他希望做一個(gè)垂直化的AI服務(wù)平臺(tái),成為全球AI推理領(lǐng)域的技術(shù)賦能型生態(tài)構(gòu)建者。
這位29歲的創(chuàng)始人用一個(gè)比喻來(lái)描述自己的角色定位,當(dāng)所有人都在淘金的時(shí)候,他選擇去修那條通往金礦的路。
路修好了,無(wú)論誰(shuí)去挖金子,他都能夠受益。
![]()
聲明:以上調(diào)研結(jié)果是商業(yè)合作內(nèi)容,用于調(diào)研的部分/全部數(shù)據(jù)來(lái)自合作方和第三方,相關(guān)觀點(diǎn)及結(jié)論均基于以上數(shù)據(jù)研究得出,不作任何投資指引和參考。
精彩內(nèi)容
![]()
![]()
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.