![]()
機器之心編輯部
一篇 AI 論文,能否同時引發學術爭議與 900 億美元市值震蕩?
上周末,我們報道了血洗內存股 900 億刀的谷歌 AI 論文涉嫌學術不端。指控的核心在于,TurboQuant 團隊涉嫌隱瞞核心技術借鑒、錯誤貶低先行研究,并在實驗中進行極度不公平的硬件對比。
隨著輿論發酵,TurboQuant 的作者團隊在 OpenReview 平臺上做出了公開回應,第二作者 Majid Daliri 發布了一份分為四點的「技術澄清」。
![]()
https://openreview.net/forum?id=tO3ASKZlok
具體回應內容如下:
1、核心創新 vs. 標準技術:TurboQuant 并未將其核心方法建立在 RaBitQ 之上。Random rotation 是量化領域中一種標準且廣泛使用的技術,其出現時間早于 RaBitQ 的公開發布,例如在一些已有工作中已經被采用,如https://arxiv.org/pdf/2307.13304、https://arxiv.org/pdf/2404.00456、https://arxiv.org/pdf/2306.11987。TurboQuant 的真正創新在于:我們推導出了旋轉后向量各坐標所遵循的精確分布,并利用這一結果實現了最優的逐坐標量化。
2、關于 RaBitQ 最優性的修正:盡管 RaBitQ 的最優性可以從其內部證明中推導出來,但論文的主定理表明其失真誤差界按某種形式進行縮放。由于指數項中存在一個隱藏的常數因子,該因子可能導致誤差呈指數級放大,因此該形式化表述并未顯式保證最優界。這也是我們最初將該方法描述為次優的原因。
然而,在對其附錄進行仔細分析后,我們發現實際上可以推出一個嚴格的誤差界。既然這一最優性已經由其更深入的證明所支持,我們正在更新 TurboQuant 的論文手稿,以更準確地標注并致謝其理論界限。
3、實驗基準的重要性:運行時基準對于我們的研究結論而言并不關鍵。TurboQuant 的主要貢獻集中在壓縮率與模型質量之間的權衡,而非特定的加速效果。本工作的價值在于:在極高壓縮率下仍能保持模型精度。即使完全移除與 RaBitQ 的運行時間對比,本論文的科學意義與有效性也基本不會受到影響。
4、關于時間節點的說明:TurboQuant 自 2025 年 4 月起已在 arXiv 上公開發布,其作者之一在此之前就已與 RaBitQ 作者進行過溝通(這一點也已被 RaBitQ 作者承認)。盡管對方有將近一年的時間可以通過學術渠道提出這些技術問題,但相關質疑是在 TurboQuant 獲得廣泛關注之后才被提出。
然而,這份回應不僅沒能平息爭議,反而像是在火上澆油,引發了學術社區和開發者群體更強烈的反彈與吐槽。
- 把關鍵技術「降級」為行業常識
首先,針對「隱瞞核心技術相似性」的指控,即 TurboQuant 同樣使用了 RaBitQ 論文中標志性的「隨機旋轉(Johnson-Lindenstrauss 變換)」作為第一階段量化的核心,Daliri 的回應是:隨機旋轉在量化文獻中是一項極其標準且無處不在的技術,早在 RaBitQ 出現之前就有了。他們強調,TurboQuant 的「真正創新」在于推導出了旋轉向量坐標的具體分布(Beta 分布),并據此實現了最優的逐坐標量化。
這種說法在字面上沒毛病,畢竟誰也不能給一個基礎數學變換申請專利。但同行們吐槽的點在于,把別人在相同特定場景(向量量化)下率先組合使用的核心步驟輕描淡寫地歸結為「行業標配」,然后將順理成章的分布推導包裝成自己的「核心創新」,多少顯得有些不夠厚道。
![]()
- 核心理論評價,建立在「沒看清附錄」之上
其次,關于「錯誤貶低 RaBitQ 理論結果」的問題。TurboQuant 曾在正文中將 RaBitQ 的理論保證定性為「次優」和「分析粗糙」。面對原作者的對質,Daliri 倒是坦率地認了錯。他解釋說,因為 RaBitQ 論文主定理的指數中隱藏了一個常數因子,導致他們最初認為這會產生指數級誤差,所以給出了「客觀的次優評價」。但在仔細研究了對方的附錄后,他們發現 RaBitQ 確實達到了嚴格的最優界限,并承諾會在最終版手稿中更正。
雖然態度誠懇,但這段回應依然讓人感到一點荒謬。一篇被谷歌官方博客數千萬次曝光的 ICLR 頂會論文,其對同行競品的核心評價,竟然是因為「沒仔細看附錄」而得出的草率結論。更何況,RaBitQ 團隊早在近一年前的郵件溝通中就已經指出了這個理論誤讀,而 TurboQuant 團隊硬是拖到事情在社交媒體上鬧大、影響了納斯達克指數之后,才「恍然大悟」地表示要修改。
- 最具爭議的,是「硬件對比」這一環
第三點回應則徹底點燃了社區的情緒。RaBitQ 團隊指控 TurboQuant 在對比運行速度時,用自己的 NVIDIA A100 GPU 去碾壓被限制在單核 CPU 且關閉多線程的 RaBitQ Python 翻譯版代碼(這段 Python 代碼甚至還是 TurboQuant 作者自己寫完找原作者幫忙 debug 的)。面對如此實錘的「田忌賽馬」式跑分造假,Daliri 的回應令人嘆為觀止:他表示「運行時基準測試對我們的研究結果無關緊要」。
按照 TurboQuant 團隊的邏輯,他們的主要貢獻在于壓縮質量的權衡,而不是具體的加速比,因此就算把和 RaBitQ 的速度對比全刪了,也不影響論文的科學價值。評論區質疑如果不重要,當初又何必處心積慮地搞出一套不對等的硬件測試,并把「速度碾壓對手」的結論堂而皇之地寫進論文里呢?
最后,Daliri 還在回應中抱怨了原作者的「發難時機」,聲稱 TurboQuant 從 2025 年 4 月就在 arXiv 上公開了,RaBitQ 作者明明有一年的時間通過學術渠道溝通,卻偏偏等到論文獲得廣泛關注后才出來指責。這不僅完全無視了 RaBitQ 團隊提供的「2025 年 5 月私下溝通郵件記錄」,還隱隱流露出一股「你就是想蹭我熱度」的幽怨。
![]()
在 OpenReview 平臺上,當初給 TurboQuant 打出高分的審稿人站出來表達了強烈的不滿。這位審稿人明確指出,他在評審階段就已經察覺到了兩者的相似性,并「強烈建議」作者在正文中充分討論 TurboQuant 與 RaBitQ 在設計選擇上的差異。然而,作者們在最終的 Camera-ready 中不僅沒有進行有意義的探討,反而僅僅在實驗部分提了一次 RaBitQ,甚至把原本正文中對 RaBitQ 已經很不完整的描述直接塞進了附錄。
![]()
更讓社區感到不適的是這背后折射出的大廠傲慢。一位研究者在公開評論中指出,這是一個令人沮喪的現狀:做基礎奠基性工作的獨立研究者或學術團隊往往無人問津,而手握巨大影響力的科技巨頭(如谷歌)只需將這些底層邏輯稍微包裝一下,配合強大的 PR 機器,就能瞬間打造出一個「革命性突破」的學術神話,甚至能以此撬動百億美元的股票市場。
![]()
在這個過程中,如果不是原作者頂著壓力、拿著詳實的郵件記錄和代碼證據出來「剛正面」,那些被刻意淡化的技術傳承、被錯誤定性的理論成果、以及單核 CPU 戰頂級 GPU 的荒誕對比,就會在大廠千萬級的曝光量下固化為新的「行業常識」。
正如 RaBitQ 一作高健揚在聲明文末所寫:「一篇論文被 Google 以數千萬曝光量推向公眾,在這種體量下,論文中錯誤的敘事不需要主動傳播,只需要不被糾正,就會自動成為共識。
![]()
縱觀整起事件,TurboQuant 在技術層面確實為 LLM 的內存優化提供了一個極具商業價值的工程解法,這也許是它能被 ICLR 接收并在工業界引發地震的原因。
然而,科學研究從來都是建立在同行間誠實、透明的交流與接力之上。當「跑分造假」可以被輕描淡寫地解釋為「與核心結論無關」,當「忽視先行研究」可以用「行業慣例」來搪塞,這傷害的不僅僅是某一個學術團隊的感情,更是整個 AI 研究社區賴以生存的信任基石。
![]()
這場風波目前仍在發酵,而它留給學術界和工業界的反思,恐怕比那 900 億美元的股市震蕩要深遠得多。
參考鏈接:https://www.reddit.com/r/MachineLearning/comments/1s8yni2/d_turboquant_author_replies_on_openreview/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.