Google 近期正式啟動數據中心 “登月計劃”,計劃將自身算力全面遷移至太空,該項目被命名為 Project Suncatcher(太陽捕手計劃)。
![]()
其核心思路十分明確:與其在地球上爭奪日益稀缺的資源,不如直接進軍太空獲取太陽能。
這項全新計劃的唯一目標,是打造一個由太陽能驅動、具備可擴展性的太空 AI 基礎設施。
此前,OpenAI CEO 奧特曼與微軟 CEO 薩提亞?納德拉在播客節目中曾表示,當前面臨的核心問題并非芯片供應,而是缺乏足夠的 “暖殼”(warm shells)來容納這些芯片。
![]()
這番言論看似 “凡爾賽”,卻揭示了 AI 發展的新痛點 —— 在 AI 浪潮初期,人們普遍認為算力是決定一切的關鍵,但奧特曼在節目中強調,AI 的未來更依賴能源領域的突破,即便訂購了大量 AI 芯片,若配套的數據中心與電力供應無法跟上,最終也難以發揮作用。
AI 領域的能耗規模極為驚人。
根據國際能源署(IEA)的預測,到 2030 年,全球數據基礎設施的耗電量將與整個日本的全國耗電量相當。除了電力,水資源消耗同樣不容小覷。
世界經濟論壇的數據顯示,一座 1 兆瓦的數據中心,每日耗水量相當于約 1000 名發達國家居民的日用水量總和。
![]()
以英偉達 H100 芯片為例,其最高功耗可達 700W,與家用微波爐功耗相近,而一個數據中心通常會配備數以萬計的 H100 顯卡,且需 24 小時不間斷運行。
近五年間,數據中心的需求呈爆發式增長,但這一增長速度已遠超新發電能力的規劃進度。
為破解能源難題,Google 推出了獨特方案:發射由太陽能驅動、搭載自研 TPU 芯片(功能類似英偉達 GPU,專為計算設計)的衛星星座,在太空中搭建 “軌道 AI 數據中心”。
太空為何能成為數據中心的新選擇?
Google 給出了直接且有力的理由。
首先是效率優勢,衛星在合適軌道運行時,太陽能板的效率是地球表面的 8 倍;其次是供電穩定性,太空無黑夜與云層遮擋,能實現 7×24 小時不間斷供電,這是地面太陽能板無法比擬的;此外,太空數據中心無需占用地球有限的土地資源,也無需消耗大量水資源用于冷卻,正如馬斯克在社交平臺 X 上所言,太空 AI 衛星能實現對地球資源的 “零消耗” 保護。
![]()
目前,地球上的數據中心正逐漸逼近能源瓶頸。
為解決冷卻與供電問題,全球大廠各尋出路:冰島、挪威的數據中心依托低溫環境降溫,內華達沙漠的數據中心依賴豐富太陽能供電,國內蘋果、華為、騰訊、移動等企業則將數據中心布局在貴州、寧夏中衛等地,借助當地自然環境降低能耗。
![]()
但太空環境的復雜性遠超地球,Google 在其研究論文中詳細羅列了當前需攻克的三大核心難題及應對方案。
第一個難題是太空 “局域網” 搭建。AI 訓練需要海量芯片協同工作,對設備間的連接帶寬與延遲有著極高要求。地球上可通過光纖實現高速傳輸,太空環境下則需另尋路徑。
Google 的解決方案是 “編隊飛行 + 激光通信”:計劃讓衛星保持極近的距離,僅為公里級甚至更近。

在包含 81 顆衛星的模擬星座中,每顆衛星都配備了太陽能陣列、輻射冷卻系統和高帶寬光學通信模塊,衛星間距離可在 100-200 米范圍內動態調整。依托這一近距離布局,衛星可通過自由空間光通信(FSO ISL)技術實現高速互聯,Google 在論文中透露,相關演示已成功達成 1.6 Tbps 的雙向傳輸速率。
第二個難題是宇宙輻射防護。太空環境極端惡劣,太陽在提供能源的同時,會噴射出致命的高能粒子(輻射),這對精密芯片而言是毀滅性打擊。
![]()
Google 的應對方式是直接測試芯片抗輻射能力:將自家 Cloud TPU v6e(Trillium)芯片送入實驗室,用 67 MeV 的質子束進行轟擊測試。
結果顯示,該芯片 “具備驚人的抗輻射性”,其中最敏感的高帶寬內存(HBM)在承受 2 krad (Si) 輻射劑量后才出現異常,這一數值接近 5 年任務預期輻射劑量(750 rad (Si))的 3 倍。
這意味著 Google 的 TPU 芯片可在低地軌道連續運行 5 年而無永久損傷。Google 計劃在 2027 年前與專注于衛星圖像和地球數據分析的 Planet 公司合作,發射兩顆原型衛星,驗證實際運行效果。
![]()
第三個難題是數據回傳。盡管太空衛星間的數據傳輸已實現高速高效,但如何將計算結果快速傳回地球,仍是 Google 在論文中承認的未解決重大挑戰。
![]()
一方面是延遲問題,Google 選擇的 “晨昏同步軌道” 雖能最大化利用太陽能,但會增加對部分地面位置的通信延遲;另一方面是帶寬瓶頸,目前 “地 - 空” 光通信的最高紀錄是 NASA 在 2023 年創下的 200 Gbps,這一速度對于太空 AI 數據中心的海量數據傳輸而言,仍顯不足。
![]()
在所有技術挑戰之上,最核心的制約因素是發射成本。曾幾何時,將一公斤物體送入太空的成本遠超同等重量的黃金。
![]()
Google 在論文中測算,若 SpaceX 的發射成本能降至 200 美元 / 公斤(預計 2035 年左右實現),太空數據中心的單位功率成本將與地面數據中心持平,約為 810 美元 /kW/ 年,這一數值完全處于美國本土數據中心 570-3000 美元 /kW/ 年的成本區間。
換句話說,當火箭發射成本足夠低時,太空將成為比地球更適合建設數據中心的選擇。但目前的實際發射價格,仍是這一理想成本的十倍以上。
而能推動這一成本變革的關鍵企業,正是 SpaceX。
Google 在論文中明確采用了 SpaceX 的成本下降假設:總發射質量每翻倍,單位發射成本下降 20%。
![]()
從 Falcon 1 到 Falcon Heavy,SpaceX 已將發射成本從 30000 美元 / 公斤降至 1800 美元 / 公斤;Starship 的目標則是在 10 倍可重復使用率下,將成本降至 60 美元 / 公斤,極限情況下甚至可低至 15 美元 / 公斤。
![]()
這意味著 SpaceX 很可能成為支撐 Google 太空數據中心經濟模型的核心力量 —— 若說英偉達壟斷了地球上的 GPU 市場,未來 SpaceX 或許會壟斷太空中的 “算力空間”,在地球英偉達賣芯片,在太空 SpaceX 則 “售賣軌道”。
值得關注的是,在 Google 發布論文數日前的 11 月 2 日,英偉達的 H100 GPU 已首次被送入太空。
這顆芯片搭載于 2024 年成立的初創公司 Starcloud 的衛星上,其在軌算力較以往任何太空計算機提升了 100 倍。
Starcloud 誕生之初便以構建太空數據中心為目標,已獲得英偉達、YC 等機構投資,其核心業務是實現數據的在軌實時處理。
![]()
Starcloud CEO 舉例說明:SAR(雷達成像)衛星產生的原始數據體量龐大,與其下載數百 GB 的原始數據,不如通過在軌 H100 芯片進行分析,僅傳回 1KB 大小的核心結果(如 “某位置有一艘船及具體速度”)。
而談及愿景的實現基礎,Starcloud CEO 同樣指向馬斯克 —— 其計劃完全依賴 “SpaceX Starship 帶來的成本降低”,此次搭載 H100 芯片的 Starcloud-1 衛星,正是通過 SpaceX 的 Bandwagon 4 Falcon 9 航班成功發射。
![]()
過去五年,英偉達之所以能屢次刷新最高市值紀錄,核心在于三點:提供性能最強的算力單元(GPU)、掌控 CUDA 通用計算平臺生態形成軟件鎖定、成為所有 AI 公司(包括 OpenAI、Anthropic、Google)的算力上游。
但在即將到來的太空算力時代,這三大優勢的格局可能被重新改寫,屆時 “算力空間” 將成為新的行業紅利。
![]()
AI 的發展極限,或許才剛剛拉開序幕。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.