
砸崩存儲股 900 億美元的谷歌 AI 論文,被指控實驗造假
TechFlow Selected深潮精選

砸崩存儲股 900 億美元的谷歌 AI 論文,被指控實驗造假
對 AI 基礎設施投資者而言,當一篇論文聲稱實現了「數個數量級」的性能提升時,首先需要追問的是基準對比的條件是否公平。
作者:深潮 TechFlow
谷歌一篇號稱「將 AI 內存佔用壓縮至 1/6」的論文,上週引發美光、SanDisk 等全球存儲芯片股超 900 億美元市值蒸發。
然而論文發佈僅兩天,算法所「碾壓」的對比方——蘇黎世聯邦理工學院博士後高健揚發佈萬字公開信,指控谷歌團隊在實驗中用單核 CPU 的 Python 腳本測試對手、卻用 A100 GPU 測試自己,並在投稿前已被告知問題後仍拒絕修正。知乎閱讀量迅速突破 400 萬,Stanford NLP 官方賬號轉發,學術界與市場同時震動。
(參考閱讀:一篇論文,把存儲股打了下去)
這場爭議的核心問題並不複雜:一篇由谷歌官方大規模推廣、直接引發全球芯片板塊恐慌性拋售的 AI 頂會論文,是否系統性地歪曲了一項已發表的先行工作,並通過刻意製造的不公平實驗,塑造了虛假的性能優勢敘事?
TurboQuant 做了什麼:把 AI 的「草稿紙」壓薄到原來的六分之一
大語言模型在生成回答時,需要一邊寫一邊回頭翻看之前算過的內容。這些中間結果被臨時存在顯存裡,業內叫做「KV Cache」(鍵值緩存)。對話越長,這張「草稿紙」越厚,顯存消耗越大,成本也越高。
谷歌研究團隊開發的 TurboQuant 算法,核心賣點就是把這張草稿紙壓縮到原來的 1/6,同時號稱精度零損失、推理速度提升最高 8 倍。論文於 2025 年 4 月首次在學術預印本平臺 arXiv 發佈,2026 年 1 月被 AI 領域頂級會議 ICLR 2026 接收,3 月 24 日由谷歌官方博客重新包裝推廣。
技術層面,TurboQuant 的思路可以簡單理解為:先用一種數學變換把雜亂的數據「洗」成統一格式,然後用預先算好的最優壓縮表逐個壓縮,最後再用一個 1 比特的糾錯機制修正壓縮帶來的計算偏差。社區獨立實現已驗證其壓縮效果基本屬實,算法層面的數學貢獻是真實存在的。
爭議不在於 TurboQuant 能不能用,而在於谷歌為了證明它「遠超競爭對手」,做了什麼。
高健揚公開信:三條指控,條條戳中要害
3 月 27 日晚 10 點,高健揚在知乎發佈長文,同步在 ICLR 官方審稿平臺 OpenReview 提交正式評論。高健揚是 RaBitQ 算法的第一作者,該算法 2024 年發表在數據庫領域頂級會議 SIGMOD,解決的是同一類問題——高維向量的高效壓縮。

他的指控分三條,每一條都有郵件記錄和時間線佐證。
指控一:用了別人的核心方法,全文不提。
TurboQuant 和 RaBitQ 的技術核心有一個關鍵的共同步驟:在壓縮數據之前,先對數據做一次「隨機旋轉」。這步操作的作用是把原本分佈不規則的數據變成可預測的均勻分佈,從而大幅降低壓縮難度。這是兩個算法最核心、最接近的部分。
TurboQuant 作者自己在審稿回覆中也承認了這一點,卻在論文全文中從未正面說明這一方法與 RaBitQ 的關聯。更關鍵的背景是:TurboQuant 的第二作者 Majid Daliri 在 2025 年 1 月主動聯繫高健揚團隊,請求幫忙調試他基於 RaBitQ 源碼改寫的 Python 版本。郵件中詳細描述了復現步驟和報錯信息——換言之,TurboQuant 團隊對 RaBitQ 的技術細節知之甚詳。
ICLR 的一位匿名審稿人也獨立指出兩者使用了相同的技術,要求充分討論。但在最終版論文中,TurboQuant 團隊不僅沒有補充討論,反而把原本正文中對 RaBitQ 的(已經不完整的)描述移到了附錄。
指控二:無憑無據稱對方理論「次優」。
TurboQuant 論文直接給 RaBitQ 貼上了「理論次優」(suboptimal)的標籤,理由是 RaBitQ 的數學分析「較為粗糙」。但高健揚指出,RaBitQ 擴展版論文已經嚴格證明其壓縮誤差達到了數學上的最優界——這個結論發表在理論計算機科學的頂級會議上。
2025 年 5 月,高健揚團隊曾通過多輪郵件詳細解釋了 RaBitQ 理論的最優性。TurboQuant 第二作者 Daliri 確認已告知全體作者。但論文最終仍保留了「次優」的表述,沒有給出任何反駁論據。
指控三:實驗對比中「左手綁人、右手持刀」。
這是全文最具殺傷力的一條。高健揚指出,TurboQuant 論文在速度對比實驗中疊加了兩層不公平條件:
第一,RaBitQ 官方提供了優化過的 C++代碼(默認支持多線程並行),但 TurboQuant 團隊沒有使用,而是用自己翻譯的 Python 版本來測試 RaBitQ。第二,測試 RaBitQ 時用的是單核 CPU 且關閉了多線程,而 TurboQuant 用的是 NVIDIA A100 GPU。
這兩個條件疊加的效果是:讀者看到的結論是「RaBitQ 比 TurboQuant 慢數個數量級」,卻無從知道這個結論的前提是谷歌團隊把對手綁住手腳之後再比賽跑。論文中沒有充分披露這些實驗條件的差異。
谷歌的回應:「隨機旋轉是通用技術,不可能每篇都引」
據高健揚披露,TurboQuant 團隊在 2026 年 3 月的郵件回覆中表示:「隨機旋轉和 Johnson-Lindenstrauss 變換的使用已經是該領域的標準技術,我們不可能引用每一篇使用了這些方法的論文。」
高健揚團隊認為這是在偷換概念:問題不是要不要引用所有用過隨機旋轉的論文,而是 RaBitQ 是在完全相同的問題設定下、最先將這一方法與向量壓縮結合並證明其最優性的工作,TurboQuant 論文理應準確描述兩者的關係。
Stanford NLP Group 官方 X 賬號轉發了高健揚的聲明。高健揚團隊已在 ICLR OpenReview 平臺發表公開評論,並向 ICLR 大會主席及倫理委員會提交正式投訴,後續還將在 arXiv 發佈詳細技術報告。

獨立技術博主 Dario Salvati 在分析中給出了相對中立的評價:TurboQuant 在數學方法上確實有真實貢獻,但與 RaBitQ 的關係遠比論文表述的要緊密。
900 億美元市值蒸發:論文爭議疊加市場恐慌
這場學術爭議發生的時間節點極為微妙。谷歌 3 月 24 日通過官方博客發佈 TurboQuant 後,全球存儲芯片板塊遭遇猛烈拋售。據 CNBC 等多家媒體報道,美光科技連續六個交易日下跌,累計跌幅超過 20%;SanDisk 單日跌幅達 11%;韓國 SK 海力士跌約 6%,三星電子跌近 5%,日本鎧俠跌約 6%。市場恐慌邏輯簡單粗暴:軟件壓縮能把 AI 推理內存需求降低 6 倍,存儲芯片的需求前景將遭到結構性下調。
摩根士丹利分析師 Joseph Moore 在 3 月 26 日的研報中反駁了這一邏輯,維持美光和 SanDisk 的「增持」評級。Moore 指出,TurboQuant 壓縮的僅是 KV Cache 這一特定類型的緩存,而非整體內存使用量,並將其定性為「正常的生產率改進」。富國銀行分析師 Andrew Rocha 同樣援引傑文斯悖論認為,效率提升降低成本後反而可能刺激更大規模的 AI 部署,最終拉昇內存需求。
舊論文、新包裝:AI 研究到市場敘事的傳導鏈風險
據技術博主 Ben Pouladian 分析,TurboQuant 論文於 2025 年 4 月就已公開發布,並非新研究。3 月 24 日谷歌通過官方博客重新包裝推廣,市場卻將其當作全新突破進行定價。這種「舊論文、新發布」的推廣策略,疊加論文中可能存在的實驗偏差,折射出 AI 研究從學術論文到市場敘事傳導鏈條中的系統性風險。
對 AI 基礎設施投資者而言,當一篇論文聲稱實現了「數個數量級」的性能提升時,首先需要追問的是基準對比的條件是否公平。
高健揚團隊已明確表示將繼續推動問題的正式解決。谷歌方面尚未對公開信的具體指控作出正式回應。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News













