撰稿:Daisy
編輯:陳茜
你有沒有想過:下一代的“算力工廠”,可能根本不在地球上?過去幾年,AI把數據中心變成了新的“能源怪獸”。電力、散熱、用水、選址,這些都成為了制約AI進化的關鍵瓶頸。
于是,一個聽起來似乎很科幻的想法,突然被拎到了臺面上:那就是把數據中心搬到太空去。在太空建數據中心,聽起來有點像是個騙投資人的 PPT? 但實際上,一場關于“軌道算力”的圈地運動,已經拉開了帷幕。
![]()
在剛剛閉幕的達沃斯論壇上,馬斯克宣稱在未來的2至3年內,太空就將成為部署AI數據中心成本最低的地方。緊接著當地時間2月2號,SpaceX宣布已收購人工智能公司xAI,而馬斯克透露,二者完成合并后,SpaceX最重要的事情之一就是將推進部署太空數據中心。
除了馬斯克外,其他公司也在密切布置著太空數據中心。亞馬遜創始人貝佐斯旗下的藍色起源,在一年多前已經秘密組建了開發團隊,用以打造軌道AI數據中心的專用衛星;谷歌也在近期發布了一項名為Suncatcher(捕光者)的太空數據中心計劃,預計將在2027年把第一批“機架級算力”送入軌道;英偉達剛剛通過初創公司Starcloud將一顆搭載了H100 GPU的衛星送入了軌道,并且首次在太空中完成了Nano-GPT模型的訓練,標志著太空算力建設已經進入到了實踐驗證階段。
所以今天的太空數據中心,似乎已經不是“要不要做”的問題,而是誰能先把它做成。為什么科技公司們寧愿忍受極高的發射成本,也要把服務器送上天?在萬米高空的真空中,數據中心究竟該怎么建?當算力離開地球表面,真的能跑出更便宜、更高效的AI嗎?
01
為什么要把數據中心送“上天”?
要理解為什么數據中心要上天,我們先得看看現在地面的日子有多難過。如果現在你問硅谷大佬們,AI進化的終極瓶頸是什么? 他們大概率不會說是算法,也不是人才,甚至也不是芯片,而就是兩個最基礎的物理限制:電力和散熱。
在我們的之前一期關于“數據中心的真實賬單”的內容中曾經細致拆解過,雖然供電和冷卻設備加起來不足整個數據中心建設成本的10%,但卻是數據中心現在真正被“卡脖子”的地方。
![]()
地面數據中心的本質是一個吞電巨獸。 當前一個超大規模AI數據中心的持續用電規模,已經從過去的幾十兆瓦(MW),躍升到數百兆瓦,甚至逼近1吉瓦(GW)。1吉瓦是什么概念? 如果一個系統以1吉瓦的功率24小時、全年無休地運行,一年產生的電量大約是8.8太瓦(TW)時,基本相當于一座中等規模城市一整年的用電量。
AI帶來的問題不僅是消耗電力,更在于這些電力最終都會轉化為熱。以H100這類高端GPU為例, 單卡功耗已經接近700瓦,當成千上萬張顯卡組成集群時,散熱就成了一項比計算本身更昂貴的系統工程。
隨著全球AI算力需求的指數級提升,傳統的風冷技術已經很難滿足高密度算力設備的散熱需求,液冷變為了必需品。數據研究,一個大型數據中心,每消耗1千瓦時電力,往往需要1至2升淡水用于冷卻。 這意味著一個百兆瓦級AI數據中心,每天就可能消耗上百萬升水。 更麻煩的是,隨著GPU功耗繼續上升,冷卻系統的效率提升已經明顯放緩。
![]()
但AI想要繼續向前發展,還必須依賴大規模的能源消耗,AI巨頭們為了獲取電力是絞盡腦汁:收購改造發電廠,自建電網,搶購燃氣輪機,研究核能……地面已然卷入了一場AI能源戰爭。
在這樣的背景下,需要尋找一個能源更充足、更穩定,且散熱也能更高效的地方,答案就是太空。在大氣層以外,太空為人類準備了三份地面永遠無法提供的厚禮:
第一份厚禮是能源。在地面,能源是一個復雜的系統問題,涉及到發電、輸電、儲能、調峰、碳排、土地等環節。哪怕是最理想的新能源體系,也繞不開天氣變化和季節波動。
但在太空的近地軌道上,太陽能的邏輯則完全不同:沒有大氣層的折射、沒有云層的遮擋、更沒有晝夜交替,只要電池板夠大,理論上就能獲得24小時不斷電、幾乎零成本的清潔能源。
計算數據顯示:在地球軌道上,太陽能的利用效率是地面的8到10倍。這意味著能源第一次變成了“連續變量”,而非“間歇資源”,這對于AI的發展極其關鍵。因為AI的訓練和推理,最關鍵的不是“便宜的電”,而是需要長期穩定、不會中斷的功率輸入。
從更宏觀的角度看,“太陽能”只是太空能源金礦的冰山一角。今天在太空里使用的“太陽能”,本質上只是太陽聚變反應的副產品。太陽本身是一個穩定運行了45億年的天然核聚變反應堆,每一秒釋放的能量,都遠超整個人類社會所需要的總和。
如今為了獲取能源,很多投資者們都去研究制造小型聚變反應,馬斯克對此表示這完全是多此一舉,因為我們頭頂上早就掛著一個免費的、不會熄火的終極能量源。
![]()
第二份禮物是散熱。在地面,需要用巨大的風扇和昂貴的液冷系統,但太空的散熱則是完全不同的物理法則。
AI運行會產生巨熱,而太空背景溫度僅為3開爾文(約 -270℃),只需將散熱器背對太陽,就能獲得高效的自然冷卻。在真空環境中,熱量不需要被“搬走”,而是可以以輻射的方式向深空釋放。我們可以通過巨大的輻射散熱板,直接把廢熱丟進宇宙,前微軟能源戰略經理Ethan Xu告訴我們,這意味著PUE(能源使用效率)可以無限逼近于1。
Ethan XU 前微軟能源戰略經理,前突破能源科研總監 太空中的溫度是非常低的,而傳統的數據中心,可能有接近4%的電力是用來給數據中心制冷的,而不是用來給算力供電的。所以在太空中,如果能夠很好地利用太空溫度接近絕對零度的這一環境,那么數據中心產生的廢熱,就可以通過輻射散熱的方式直接排到深空當中。這樣,數據中心的電力使用效率(PUE)就可以在理論上接近于1。也就是說,在給數據中心提供的這些電力當中,幾乎所有的電力都是用來給算力供電的,而不是用來給制冷供電的。
![]()
第三份禮物是極低延遲。光在真空中的傳播速度比在光纖里快30%, 通過激光鏈路,太空數據中心可以繞過復雜的陸地網絡和海底電纜,實現真正意義上的“全球算力秒達”。當算力節點開始部署在軌道上,它們就不再代表著“遠離地球”,而是有可能在特定網絡拓撲中,轉化成更接近用戶、更快的中繼節點。
所以太空同時滿足了持續能源、極端散熱、接近物理極限的通信條件這三個條件,正好也是AI算力當下最稀缺的三樣東西。但是聽起來如此完美的方案,在現實中卻面臨著一個巨大的入場券問題: 怎么才能把那些比鋼琴還重、比瓷器還脆弱的服務器,塞進火箭,再精準地部署到軌道上呢? 太空數據中心,究竟該怎么建?
02
太空數據中心怎么建?
當前的兩種主要探索路徑
目前來看,全球的探索,已經逐漸收斂為兩條主流路徑:一條是“在軌邊緣計算”;另一條是“軌道云數據中心”,這兩種探索,一個解決“現在的問題”,一個押注“未來的規模”。解決的是不同層級的問題,也代表著不同階段的野心。
![]()
關于這兩種路徑,最近浙江大學和新加坡南洋理工大學也在Nature上聯合發布了最新研究,首次系統性地提出了完整的技術框架,我們也采訪到了該論文的第一作者Ablimit Aili博士,來幫助我們理解兩種路線究竟有什么區別、都怎么建。
Chapter 2.1 在軌邊緣計算
首先來看在“軌邊緣計算”模式,邊緣數據中心并非一個完整的“云”,它的核心邏輯相對簡單:不再把衛星采集到的所有數據都傳回地面,而是把AI加速器直接送上已經在運行的衛星,讓數據在太空中就被分析、篩選和壓縮。適用于一些規模較小、更加專用的場景。
Ablimit Aili 浙江大學長三角智慧綠洲創新中心特聘研究員 邊緣數據中心,主要考慮的是單個衛星或者較小的衛星群。比如這些衛星群可能提供遙感服務或者成像服務。為了對它們進行升級,我們在升級時加上更好的算力,比如AI加速器,以此提升這些衛星的特殊計算能力(如圖像處理能力),從而大大降低這些衛星需要傳輸給地面站的數據量。這首先會大大地降低服務的延遲時間,間接地也會降低地面數據中心需要處理的數據量。
![]()
一個代表性成功案例是Starcloud與英偉達的合作。去年11月Starcloud成功將英偉達H100 GPU送入軌道,他們發射的Starcloud-1衛星,搭載了一顆H100級別的GPU,整套算力系統僅重60公斤,大小相當于一臺小型冰箱。
這顆衛星的任務并非“展示算力”, 而是直接接收來自合成孔徑雷達(SAR)衛星群的數據,在軌道上完成實時處理,再把結果回傳地球。
截至目前,它在太空中完成了幾個重要任務:一是成功調用了谷歌的開源模型Gemma,并向地球發出了“Hi地球人,你們好”的問候,仿佛一個地外智慧生命;二是使用莎士比亞全集訓練由OpenAI創始成員Andrej Karpathy打造的NanoGPT,讓模型能夠以莎士比亞式的英語進行表達;三是實時讀取傳感器數據,進行實時情報分析,比如瞬間識別野火熱信號等,并及時通知地面人員。
![]()
Starcloud-1 的成功,也意味著太空中的算力第一次不再只是“輔助系統”,而開始直接參與計算本身。“在軌邊緣計算”之所以成為太空數據中心建設第一條被跑通的路線,背后有著非常清晰的技術和商業邏輯。
首先,在軌邊緣計算的技術難度相對可控。所謂“可控”,并不指“把GPU送上天”這件事很容易,而是因為它所做的,是對既有技術的延伸,而非一次系統級重構:
1.在硬件層面,這條路線并沒有發明新的計算架構,使用的仍然是成熟的數據中心級AI加速器,只是將它們重新封裝以適配太空環境。
2.在系統層面, 在軌邊緣計算不追求復雜的算力調度和多節點協同。一顆衛星對應一類特定任務(如遙感圖像處理、氣象、災害監測、軍事偵察等),因此它更像是一臺“任務專用的算力設備”,而非一個分布式云系統。
由于這些任務本身就高度確定,這意味著算法、算力規模、功耗及散熱,都可以在發射前被充分設計和驗證,而不是到了軌道上才“臨場發揮”。,即便某一顆算力衛星出現問題,其影響也是局部的、可隔離的,不會像云數據中心那樣牽一發動全身。
其次,在應用層面,它的商業模式非常清晰。通過在軌計算,能夠顯著減少下行帶寬壓力、降低通信能耗并顯著縮短決策延遲,為各類任務進行服務,因此,這不僅僅是“未來算力”的故事,更是立刻可量化的效率和收益。
![]()
Aili博士在采訪中還表示,“在軌邊緣計算”更重要的意義在于,這條路線正在幫助完成一件關鍵的事情:驗證算力能否在太空中長期、穩定、可靠地運行,從而為未來真正建設軌道云數據中心打下基礎。
Ablimit Aili 浙江大學長三角智慧綠洲創新中心特聘研究員 這是非常重要的第一步,因為需要驗證幾個關鍵點:其中最重要的是這個GPU在太空中的算力表現。因為太空環境和地面環境有著很大的區別,最大的區別在于太空中存在大量高能粒子,這對計算設備的影響非常大。首先,他們需要知道這個GPU能不能提供預期的算力;其次,他們也想驗證GPU能不能承受這些粒子的輻射,以及能否提供幾年甚至十年以上的服務。
不過,因為“在軌邊緣計算”主要服務于特定任務,所以它也有著非常清晰的天花板。它更適合圖像識別、目標檢測、事件篩選,而非通用的大規模計算。此外,從物理角度來看,因為受制于衛星體積、供電和散熱,它也不可能無限堆疊GPU, 更談不上訓練超大模型。

所以,“在軌邊緣計算”更多的是一種對太空數據中心的驗證和嘗試。
Chapter 2.2 軌道云數據中心
相比之下,軌道云數據中心的目標則更為直接、大膽,那就是在太空中構建一個真正意義上的云計算基礎設施。
這條路線不再局限于某一類特定任務,而是試圖在軌道上構建一個包含多算力節點、具備高速星間通信能力,且受統一調度與編排的系統,最終目標是讓太空中算力能像地面云一樣,實現靈活調用、分配與擴展。
目前最成體系的軌道云設想之一,來自谷歌內部的Suncatcher Projec(“捕光者”計劃),它的核心思路是:在軌道上部署相對固定位置的算力平臺,通過持續穩定的太陽能供電,為地面的數據中心提供算力補充。
![]()
在這個設想中,太空算力并非獨立運行的“外星系統”,而是被納入現有云計算體系,成為地面云的一部分。它不追求全球移動覆蓋或承擔用戶直連通信,主要任務是為地面數據中心分擔算力壓力。簡單來說, 你可以把它理解為懸掛在太空中的“超大規模算力機架”。
Ablimit Aili 浙江大學長三角智慧綠洲創新中心特聘研究員 在他們發表的文章中,幾十顆衛星形成一個集群。它不是覆蓋整個地區,而是一個群體,并始終保持大致的形狀不變。我猜,這樣設計是為了確保它們在太空中的特定位置,能夠與地面數據中心實現數據通信。
在谷歌發布的該計劃的論文中,非常詳細地闡釋了Suncatcher系統的架構設定、建設方案以及成本測算,從模式上來說,Sunchather計劃幾乎是將地面數據中心拆解為眾多小單元,再將它們逐一“太空化”。
它的設想是在日照更穩定的晨昏軌道部署一批搭載太陽能陣列的衛星,每顆衛星均配備Google TPU加速器,衛星之間通過自由空間光通信(FSO)互聯,再用一套更“智能”的控制系統實現讓這些衛星在太空“貼身飛行”,也就是保持極近距離而不發生碰撞。論文中還舉出了一個非常具體的結構:用81顆衛星形成半徑1公里的集群。
![]()
在硬件與成本方面,谷歌也進行了充分的可行性論證:
1.硬件方面:谷歌專門為太空數據中心研制了特別版本的TPU,針對Trillium TPU進行的輻射測試結果顯示,在等效約5年軌道任務壽命的輻射劑量下,TPU未出現致命性失效。
2.成本方面:谷歌基于SpaceX的發射數據進行了詳細的學習曲線分析,推測到2030年代中期,LEO發射成本有望降至小于200美元/公斤的量級,若星艦實現完全重復使用,發射成本甚至可能進一步降至每公斤60美元甚至15美元。
按照計劃,谷歌預計在2027年初發射兩顆原型衛星,屆時將測試TPU在太空中的實際運行情況,并驗證光通信鏈路的穩定性。
Chapter 2.2.1 SpaceX:基于Starlink的“軌道云”
如果說谷歌是“從數據中心出發,把它拆成衛星編隊再搬上天”,那SpaceX的路線剛好相反:它是“從衛星星座出發,讓星座進化成算力云”。
![]()
SpaceX手里有一個現實存在的、規模最大的低軌星座——Starlink,截至目前,Starlink大約有9300顆活躍衛星,占所有在軌可運行衛星的約65%,且衛星之間已通過激光鏈路高速互聯。這意味著,如果想要在太空里做“分布式系統”,SpaceX是少數真正擁有“分布式硬件底座”的公司。
SpaceX的設想是:讓部分Starlink衛星, 逐步從“純通信節點”演進為同時具備通信與算力能力的節點,這樣一來,算力不再集中在少數固定平臺, 而是分布在整張軌道網絡中。
那具體該怎么實現呢?實際上,現在已經在天上的Starlink衛星不會直接變成數據中心,必須通過“改造后的新一代衛星”,才能真正承載計算任務。

目前在軌運行的Starlink衛星,核心任務只有通信(負責用戶接入、數據中繼和星間激光鏈路轉發),這些衛星雖然具備一些算力,但并非為高密度計算而設計,因此,把它們直接“升級成數據中心”,在工程上并不現實。
所以SpaceX更可能采取的路徑是:在后續發射中,引入一類全新的、被改造過的“算力增強型衛星”,這些衛星在設計上會發生明顯變化,包括具備更高的供電能力、專門為算力設計的散熱結構、以及更強的星間通信接口等。它們的核心身份是網絡中的“計算節點”,而非純粹的“通信節點”,當新衛星被發射上天后,它們會與原有的Starlink衛星通過星間激光鏈路連接,共同組成一個在軌的、分層式的云系統。
Aili博士在采訪中表示,SpaceX的這種方案,跟他們的研究團隊從多年前所開始思考的軌道云數據中心建設方式不謀而合。
Ablimit Aili 浙江大學長三角智慧綠洲創新中心特聘研究員 我們提出的云數據中心框架,是基于現有的通信衛星,比如Starlink。在此基礎上,我們加上通用服務器等設備,加大太陽能板,加大冷卻板,或者增加冷卻板數量,并配備更高的帶寬。所以,這個思路和SpaceX比較類似。
這種模式的核心特點是,它并不追求一次性建成超大規模算力中心,而是依托現有Starlink星座不斷疊加節點能力,讓軌道網絡本身慢慢具備計算屬性,進而形成一個覆蓋全球、動態調度分布式網絡。它的優勢在于演進成本更低,并且風險可控,就算某個算力節點出問題,也不會拖垮整張通信網絡。
Chapter 2.2.2 太空站式集中數據中心
除了“在軌邊緣計算”和“基于星座的軌道云”,還有一種更直覺、也更具“地面思維”的探索方向:在太空中建設集中式數據中心。
它的核心思路很簡單:不把算力分散在大量衛星上,而是在太空站或大型在軌平臺中,集中部署機柜級算力系統,就像把一座小型地面數據中心,整體搬到軌道上。
目前,這條路線更多停留在研究與早期工程驗證階段,但已有部分機構和創業公司開始布局。在航天機構層面,包括NASA和歐洲航天體系都曾在國際空間站(ISS)環境中,進行過與在軌計算、數據處理和邊緣算力相關的實驗;此外,一些商業航天公司也在研究在空間站嵌入數據中心的可行性,包括Axiom Space,Voyager Space等。
![]()
這種模式的優勢在于結構集中、維護邏輯清晰,且最接近地面數據中心的工程思維;但代價同樣明顯:面臨極高的發射與在軌建設成本、擴展性有限、且強烈依賴在軌維護能力。
Ethan Xu 前微軟能源戰略經理、前突破能源科研總監 首先,它的算力比較集中,跟地面上的數據中心類似。由于算力集中,各個機柜或芯片之間的通信速度會更快,延時更低,連接也更可靠。 但是從另一方面來講,可能在運維時可靠性會出現問題。如果是分布式數據中心,即便一個衛星上的算力節點出現了問題,還有幾十個、幾百個其他的節點在。但如果是這種集中式、大型的數據中心,如果遭遇比較大的問題,就有可能同時影響大量的算力。
至此,我們已經看到了一幅相當完整的太空數據中心建設圖景:有的選擇從最務實的“在軌邊緣計算”入手,有的試圖直接構建真正的“軌道云計算”體系,雖然路徑不同、節奏不同,但它們指向的是同一個方向:算力,正在被認真地推向軌道。
當這些路線開始從計劃圖紙走向工程和現實世界,真正的考驗才剛剛開始。
03
太空數據中心的建設挑戰與前景
Chapter 3.1 技術挑戰
太空有太陽、有真空環境,似乎好像天生就適合部署算力,但一旦進入工程層面,卻并沒有那么簡單。我們先來看一顆普通的通信衛星:
![]()
它左右展開的兩個“大翅膀”是太陽能板,負責為整顆衛星提供電力,也是它幾乎唯一的能源來源。
衛星中間相對緊湊的“盒子”,是衛星平臺。這里面包含了姿態控制、推進系統、電源管理、熱控和計算控制單元,負責讓衛星在軌道上穩定運行、精確指向地面。
衛星前方或下方突出的結構是通信載荷。它們負責接收來自地面的信號,進行簡單處理和放大,然后再轉發回地球。
傳統通信衛星的設計目標非常明確:盡量少算、少熱、少功耗,把復雜計算留在地面,自己只做“信號中繼”。而要把算力真正搬到衛星上,改變的絕不僅是“多加一塊芯片”,而是要從能源、散熱到結構設計,將整顆衛星的工程邏輯推翻重來。
首先發生變化的,是能量系統。為了支撐持續運行的計算單元,單個衛星的太陽能板需要更大面積,電源管理系統也必須更復雜,因為算力需要的不是“平均電力”,而是穩定、持續、不掉線的功率輸入。
Ethan Xu 前微軟能源戰略經理、前突破能源科研總監 比如100兆瓦的太陽能發電站,在地表上可能相當于200個左右足球場大小的面積,規模非常大。如果同樣的太陽能板要放到太空中展開,至少需要幾十個足球場那么大的面積。所以,這就意味著必須從工程上解決一個問題:如何用更輕質、更高效的材料,把太陽能板折疊好,發射到太空當中,再將其展開。在日常運維時,還必須采用自動化方式,比如利用機器人對太陽能板進行維護。這就和在地面上出了問題,派工人去排查、修復的模式完全不一樣了。
接著變化的,是衛星的“中樞”。在傳統通信衛星中,中間的“盒子”主要負責控制和調度;而在算力衛星里,這里會多出真正的計算載荷——AI加速器、存儲模塊、數據處理單元,它們將成為新的“核心器官”。
隨之而來的,是散熱結構的變化。通信載荷產生的熱量有限,但算力載荷會持續發熱,這意味著衛星外部, 必須增加專門的輻射散熱板,把熱量穩定地送向深空。
![]()
而這些變化,會讓衛星的重量和重心發生改變, 進而也對發射能力和星座部署節奏提出了全新的要求。
Chapter 3.2 工程實現與成本挑戰
即便技術上可行,太空數據中心仍然要面對一個更現實的問題:工實現程的復雜度以及建設成本的可承受性。
在地面,數據中心的建設流程高度成熟:設計、施工、通電,每一步都有標準化路徑,但在太空,工程流程被迫拉長成一條極復雜鏈條:從系統級設計到模塊化制造、再到多次發射、 在軌展開、聯調運行,最后還有運行維護與退役處置,任何一個環節出錯,都可能導致前期所有投入“作廢”,這就迫使工程本身必須極度保守。
我們在上一期數據中心建設成本的視頻中分析過,目前建設1GW的地面數據中心大約需要516億美元,但要建設同等規模的太空數據中心呢?
目前太空數據中心的成本結構主要包括四個部分:能源系統(空間太陽能陣列)、散熱系統(超大面積輻射散熱器)、算力與航天級系統封裝、以及發射和在軌組裝。
![]()
其中,光是“發射和在軌組裝”這一項,成本就幾乎要追上地面數據中心的總造價。為了“能被送上天”,算力、能源、散熱系統,都必須被拆分、減重、重新封裝,這不僅提高了單瓦算力的制造成本,一旦規模上升到百兆瓦甚至吉瓦級,發射次數將變成一個不可忽視的“成本乘數”。
根據NASA、JPL等機構的測算,要在太空中實現1GW級持續功率的在軌能源系統,大約需要數百萬平方米級太陽能陣列,這意味著系統總質量甚至會達到上萬噸級,即便是按照SpaceX Falcon 9最低的內部發射成本約1500萬至2800萬美元/公斤來計算,這一部分的整體投入就已經達到200至300億美元。
此外,地面數據中心可以容忍一定比例的故障, 因為硬件可以隨時更換,但太空數據中心不行,算力系統必須在多年無人維護的條件下穩定運行,這也意味著更高規格的元器件、更嚴格的測試周期和更慢的技術迭代節奏,最終的結果是每一瓦算力,都要承擔更高的“生存成本”。
所以當把所有環節納入考量,哪怕是非常保守地估算,目前1GW的太空數據中心的建設成本都可能上探至千億美元。
![]()
不過,Ethan也表示,雖然現在建太空數據中心還非常昂貴,但在發射成本大幅下降前提下,由于能源方面的成本幾乎為零,未來太空數據中心也可能在整體生命周期成本上優于地面系統。
Ethan Xu 前微軟能源戰略經理、前突破能源科研總監 從經濟本質上看,太空數據中心主要是利用未來數十年極低的運行成本優勢,來彌補前期高昂投入的劣勢。如果前期投入能持續降低,同時未來長期的運行成本也能不斷地下降,那么綜合來看,太空數據中心的成本很有可能在未來幾年與地面數據中心接近,甚至更低。
Chapter 3.3 監管與挑戰
即便技術與成本可行,太空數據中心仍面臨一個非常重要的挑戰——監管。無論采用哪種形態建設,太空數據中心本質上都意味著在軌設備數量級的增長,為了實現數據中心級的算力規模,龐大的衛星群甚至會把地球包圍起來,而在近地軌道已經日益擁擠的情況下,勢必會引發整個軌道的系統性問題。
首先是軌道擁擠。算力衛星通常更重、壽命更長、運行狀態更復雜,當不同國家、不同企業以及不同類型的衛星同時在同一軌道層運行,協調難度會被成倍放大。
![]()
其次是碰撞風險與太空垃圾。 高功耗算力衛星一旦失效,如果不能及時、可控地離軌,便可能成為長期存在的碎片源,而碎片一旦產生,會在軌道上以極高速度傳播風險——這影響的不僅只是單個項目, 更是整個軌道環境的長期安全。
這也意味著,太空數據中心的推進不僅需要技術突破和資本支持,更需要一套全新的軌道治理機制,包括制定更嚴格的離軌與退役標準,以及實現跨國界、跨運營方的長期協作。
Chapter 3.4 未來前景
在理清了太空數據中心所面臨的技術、成本和監管的一系列挑戰后,一個判斷就變得更清晰了:太空數據中心絕非一條“短期見效”的路線。
從宏觀算力體系的視角來看,未來太空數據中心的角色并非地面數據中心的替代者, 而是補充性的存在。至少在可預見的未來,地面數據中心依然具備無可替代的優勢:成本更低、部署更快、維護更靈活、生態也更成熟,對于絕大多數通用計算任務而言,將算力部署在地面,依然是最經濟、最高效的選擇。
![]()
而太空數據中心的建設意義,不在于追求短期的“性價比”,而在于開辟一條不再受制于地面物理條件的算力增長路徑。當算力規模持續膨脹,地面數據中心日益受到能源供給、散熱能力、用水壓力及土地資源等約束時,太空所提供的是一種長期可行的備選方案。
因此,即便太空數據中心真正落地,更現實、也更可能出現的形態并非“算力整體上天”,而是地面與太空并存的“混合算力體系”:地面數據中心繼續承擔主體算力、核心存儲和高頻交互任務;而太空數據中心,則在特定場景中發揮關鍵作用。
Ethan Xu 前微軟能源戰略經理,前突破能源科研總監 太空數據中心在某些場景下是非常可行的。比如在AI訓練過程中,需要消耗大量的能量,但AI訓練針對的客戶主要是公司內部的科研人員,并不是普通消費者。因此,可以將這類對能耗要求特別大、對延遲要求不高、同時 對可靠性要求也不是那么高的算力需求,放到太空中進行。此外,隨著太空科技的發展,很多數據需要在太空中采集,也需要在太空中計算。所以,太空數據中心可以作為一種邊緣數據中心存在。04
云端之上
重新定義算力的物理邊界
如果說地面數據中心定義了過去二十年算力增長的方式,那么太空數據中心,更像是在為下一個算力時代,提前鋪設一條尚未啟用的基礎設施。
今天的它,仍然昂貴、復雜、充滿爭議,距離規模化還有很長的路要走,但它所回應的, 是一個越來越現實的問題:當算力需求繼續膨脹,地面世界是否還能無限承載?
![]()
也許在短期內,太空數據中心不會成為主角,但它正在提醒著我們——當人類開始認真討論把“云”送上軌道,便意味著“算力”已經被當作一種需要跨越行星尺度來思考的基礎資源。太空數據中心的意義,或許不在于它什么時候能落地,而在于它也讓我們意識到:人類計算的邊界,如今已不再止于地球。
注:部分圖片來源于網絡
【本期節目不構成任何投資建議】
【視頻播放渠道】
國內:B站|騰訊|視頻號|西瓜|頭條|百家號|36kr|微博|虎嗅
海外:Youtube
聯系我們:video@sv101.net
【創作團隊】
監制|泓君 陳茜
撰稿 |Daisy
主持 |陳茜
剪輯|橘子
動效|HIROBUMI 踹
運營|王梓沁 何源清
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.