4 月 8 日,一支由加州理工學院、谷歌量子 AI、MIT 和初創公司 Oratomic 組成的聯合團隊在預印本平臺 arXiv 發布論文,宣稱證明了一個長期懸而未決的命題:小型量子計算機可以在處理大規模經典數據的(部分)機器學習任務中,以指數級更少的內存超越經典計算機。
研究團隊在電影評論情感分析和單細胞 RNA 測序兩個真實數據集上驗證了這一優勢。用不到 60 個邏輯量子比特,量子算法的內存消耗就比經典方法低了四到六個數量級。
![]()
圖丨相關論文(來源:arXiv)
量子機器學習這個領域已經熱鬧了二十年,但一直沒能兌現早期的宏大承諾。最初那批算法號稱能加速線性代數運算,后來被一系列“去量子化”工作證明經典計算機用巧妙的隨機采樣也能做到;變分量子電路一度被寄予厚望,卻在訓練中頻繁撞上“貧瘠高原”,梯度消失得找都找不到。
但這些挫折背后有一個更根本的問題:幾乎所有聲稱有量子加速的算法,都假設數據已經以量子態的形式存在于機器中。現實世界的數據偏偏是經典的,比如一條條電影評論、一張張 CT 影像、一行行基因表達數據……怎么把這些東西高效地“喂”給量子計算機,一直是個沒人能繞過去的坎。
量子隨機存取存儲器(Quantum Random Access Memory,QRAM)曾被視為這個問題的終極解法。
![]()
圖丨處理海量經典數據時的量子優勢(來源:arXiv)
這種設備理論上能讓量子計算機像查字典一樣,在疊加態中同時訪問大量經典數據。但 QRAM 至今停留在紙面上,維持它所需的相干訪問對硬件要求極為苛刻。2024 年發表在 npj Quantum Information 上的一項研究從因果律和相對論原理出發推導 QRAM 的物理上限,結論相當悲觀:要讓 QRAM 達到實用規模,所需的硬件復雜度本身就會吃掉量子優勢帶來的收益。
更尷尬的是,用來維持 QRAM 運行的經典控制系統往往足夠強大,可以直接解決原本打算交給量子計算機的問題。到 2019 年前后,業界開始認真思考一個問題:在處理來自宏觀世界的經典數據時,量子計算機到底還能不能展現出任何優勢?
新論文的突破在于徹底繞開了 QRAM。研究團隊提出了一套名為“量子預言機速寫”(Quantum Oracle Sketching)的算法框架,核心思路出奇地簡單:把數據當作流來處理。每觀察到一條經典數據樣本,就對量子系統施加一個精心設計的小旋轉操作,然后立即丟棄這條數據。
隨著越來越多的數據流過,這些小旋轉逐漸累積,最終在量子系統中構建出一個足夠精確的“預言機”近似,這個預言機可以被后續的量子算法調用,就好像數據已經以量子態的形式存在一樣。
論文第一作者、加州理工學院博士生趙海萌在 Quantum Frontiers 博客上解釋了這個想法的直覺來源。傳統思路是先把所有數據存下來,再讓量子計算機去訪問;流式處理的邏輯完全不同,數據來一條處理一條,處理完就丟,量子系統的狀態本身就是對數據的壓縮表示。這有點像經典的流式算法和在線學習,只不過量子版本能把信息壓縮到指數級更小的空間里。
![]()
圖丨趙海萌(來源:https://hmzhao.me/)
不過這種方法也是有代價的。論文證明,用經典數據樣本構建量子預言機需要付出“平方代價”,如果你想調用預言機 Q 次,就需要消耗大約 Q2 條數據樣本。這個代價源于量子力學的玻恩規則,量子振幅和經典概率之間的平方關系是綁死的。研究團隊同時證明了這個平方代價是最優的,不可能再降低。
研究團隊選了兩個數據集做驗證:IMDb 電影評論數據集,任務是判斷一條評論是正面還是負面;單細胞 RNA 測序數據,任務是把高維的基因表達數據投影到低維空間以區分不同類型的細胞。實驗比較了四種方法:量子預言機速寫、基于 QRAM 的量子算法、經典稀疏矩陣算法、經典流式算法。為了公平比較,研究者統一用“基本存儲單元”來衡量內存消耗,量子算法用邏輯量子比特數,經典算法用浮點數個數。
![]()
(來源:arXiv)
結果相當驚人。要達到同等的預測性能,量子預言機速寫只需要不到 60 個邏輯量子比特,而經典方法需要的內存高出四到六個數量級。更有意思的是,當逐步限制內存預算時,量子算法的性能幾乎不受影響,而經典算法的表現急劇下降。
趙海萌在博客中打了個比方:300 個邏輯量子比特的量子處理器,在存儲能力上可以超越一臺由可觀測宇宙中每一個原子構成的經典計算機。當然,要真正看到這種戲劇性的對比,還需要宇宙級別的數據集和處理時間。
四到六個數量級的差距固然驚人,但更值得關注的是這種優勢的本質。
論文的核心定理建立了機器大小與查詢復雜度之間的根本關系:對于求解線性系統、分類、降維這些常見任務,一臺多對數大小的量子機器可以在近線性時間內完成,而任何內存小于問題規模 0.99 次方的經典機器都做不到,即便給它超多項式的樣本和時間也不行。
更關鍵的是,這種優勢是“信息論層面的”和“無條件的”,不依賴任何計算復雜性猜想,僅僅依賴量子力學本身的正確性。換句話說,即便未來有人證明經典計算機和量子計算機在多項式時間內能解決同樣的問題,這里證明的優勢依然成立。
這和之前展示的“量子優越性”實驗有本質區別。2019 年谷歌用 Sycamore 處理器完成的隨機電路采樣任務證明的是計算速度上的優勢,而且那個任務本身沒有什么實際用途。這一次,優勢體現在內存而非速度,而且任務(分類和降維)是機器學習中最基礎、應用最廣的操作。
John Preskill 在論文發布當天發推說:“我們的論文證明,量子機器可以用指數級更少的內存解決常見的機器學習任務。要把這個理論轉化為實踐還需要大量工作。但因為現代 AI 常常受限于內存不足,這個發現增強了我們的信心:量子 AI 最終能對日常生活產生廣泛影響。”
當然需要強調的是,這項研究目前仍是理論證明加數值模擬,尚未在真實量子硬件上驗證。論文中的“60 個邏輯量子比特”是個容易引發誤解的數字。邏輯量子比特是經過量子糾錯編碼的、受到保護的量子比特,和當前噪聲中等規模量子設備上的物理量子比特完全不是一回事。要實現一個邏輯量子比特,可能需要數百甚至上千個物理量子比特加上配套的糾錯電路。
谷歌在 2024 年底發表于《Nature》的研究中剛剛首次展示了糾錯性能隨編碼規模增大而提升的“閾值以下”操作,從那一步到能穩定運行 60 個邏輯量子比特,中間還有相當長的路。
還有一個許多人都關心的問題可能是:這對大語言模型來說有用嗎?這些結果對當前最火的生成式 AI 有什么啟示?論文處理的是分類和降維這類“判別式”任務,而大語言模型是生成式的。趙海萌在博客中坦承,目前的結果“并不直接意味著對大語言模型等現代生成式 AI 的即時效用”。
但他比較樂觀地表示:“我有一種強烈的感覺,我們正處于一個與傳統機器學習時代驚人相似的歷史節點——那個支持向量機和隨機森林主導的時代,那個我們依賴嚴格統計分析因為缺乏大規模啟發式探索所需計算資源的時代,那個最終孕育出深度學習和 AI 革命的時代。”
量子計算社區一直被一個問題困擾:除了破解密碼和模擬量子系統,量子計算機到底還能用來干什么?這項研究給出了一個部分答案。不是因為機器學習任務本身有什么量子結構,而是因為量子態的指數級表達能力可以用來極度壓縮對經典數據的表示,前提是你得找到合適的方法把數據“流”進去。
Preskill 在 2012 年提出“量子優越性”概念時曾援引費曼的名言:“自然不是經典的,該死的,如果你想模擬自然,你最好把它做成量子力學的。”這篇論文的作者們在博客中整活反轉了這句話:“我們生活在一個實際上是經典的世界里,該死的,也許經典計算機和 AI 對我們的大多數問題已經夠用了。”他們的論文證明,這個“也許”后面還有很大的商榷空間。
參考資料:
1.https://arxiv.org/pdf/2604.07639
2.https://quantumfrontiers.com/author/haimengzhao/
運營/排版:何晨龍
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.