我看到阿爾托大學這條新聞的時候,老實說我愣了兩秒:這誰敢在這個節骨眼上宣布“用一次光程把張量算完”?行吧,這波要是落地,真可能把我們盯了十年的“GPU換代節奏”給徹底改寫。
關鍵信息先擺在這:阿爾托大學團隊在《自然·光子學》發表的研究,用光的振幅和相位做信息編碼,把卷積、注意力這些深度學習的核心運算,塞進一次光傳播里完成。沒時鐘翻轉、沒電子開關頻繁抖動,執行速度就一句話——光速級。研究里叫“單次張量計算”(single-pass tensor computing),還引進了多波長并行,等于在一個光路里開出一整個“多車道高速”。
![]()
為啥我會這么興奮?這兩年大家都被算力壓著喘。OpenAI那篇經典統計提過,訓練大模型的計算需求早期差不多每3.4個月翻倍,這節奏誰頂得住。數據中心這邊也不輕松,IEA給出的路徑里,數據中心用電占比繼續上行,AI負載的份額越拱越高。電費和散熱,成了最硬的KPI。更扎心的是,GPU堆到天花板,帶來的邊際收益越來越像踩棉花——時鐘上不去、帶寬卡在內存墻,單位MAC的能耗掉不下去。
這項光學方案到底在做啥?我試著把它說人話:
和現在的GPU比,改變點在哪?我盯著三件事:
別光吹,工程上的坑有不少,攤開說:
![]()
產業這邊,生態不是空白:
我給出一份購買清單式的關注點,算是“看門道”的指南:
有人會問,那這玩意能不能“換掉”GPU?我自己的判斷偏穩:短期更像“并肩作戰”。把最吃線性代數、最吃帶寬的塊卸載到光路,GPU/TPU做控制與非線性,整機能效立刻跳一格。等到非線性件、可編程性、I/O都被一代代材料和器件追上,再去談“重構計算機”。這節奏反倒靠譜。
順帶補幾條供你抬杠的數據點:OpenAI那篇算力趨勢是公開的舊圖還在更新;IEA對數據中心電力的預測也在年年修正,AI的份額變化很快,地區差異也大。企業側,Lightmatter、Celestial AI在光互連上已經簽了一些大單,說明產業愿意買單“光進機房”的第一步。阿爾托這次把“單次張量”扔進來,有點像在說:不只互連,計算本身也能重寫。
我的態度很直接:這件事既前途光明,也絕不輕松。要恰當地興奮,也要耐心看版本號。三到五年的窗口期,誰能先交出“真指標+真軟件棧+真工藝”的三件套,誰就有資格在下一代AI硬件命題里占個C位。
我先押一句大膽的預判:下一波SaaS大廠,會把注意力層推理卸載到光子模塊上,先拿低延遲和能效做突破。你愿不愿意把自己的推理集群,拆一層換成“光學外掛”?要不要賭一次?評論區說說你會投給誰,光學派還是繼續ALL IN GPU。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.