
Bài báo AI của Google trị giá 90 tỷ USD khiến cổ phiếu lĩnh vực lưu trữ sụp đổ, bị cáo buộc gian lận trong thí nghiệm
Tuyển chọn TechFlowTuyển chọn TechFlow

Bài báo AI của Google trị giá 90 tỷ USD khiến cổ phiếu lĩnh vực lưu trữ sụp đổ, bị cáo buộc gian lận trong thí nghiệm
Đối với các nhà đầu tư vào cơ sở hạ tầng AI, khi một bài báo tuyên bố đạt được sự cải thiện hiệu năng “nhiều bậc độ lớn”, điều đầu tiên cần đặt câu hỏi là liệu các điều kiện so sánh trong thử nghiệm chuẩn có công bằng hay không.
Tác giả: TechFlow
Một bài báo khoa học của Google tuyên bố “giảm dung lượng bộ nhớ sử dụng bởi AI xuống còn 1/6” đã khiến vốn hóa thị trường của các cổ phiếu chip lưu trữ toàn cầu như Micron và SanDisk bốc hơi hơn 90 tỷ USD vào tuần trước.
Tuy nhiên, chỉ hai ngày sau khi bài báo được công bố, bác sĩ hậu tiến sĩ Cao Kiến Dương của Viện Công nghệ Liên bang Thụy Sĩ (ETH Zurich), đối tượng bị thuật toán trong bài báo “vượt xa”, đã đăng một lá thư công khai dài tới vạn từ, cáo buộc nhóm nghiên cứu Google đã sử dụng kịch bản Python chạy trên CPU đơn nhân để kiểm tra hiệu năng của đối thủ, trong khi lại dùng GPU A100 để kiểm tra chính thuật toán của mình; đồng thời khẳng định nhóm Google đã được thông báo về vấn đề này trước khi gửi bài đến hội nghị nhưng vẫn từ chối sửa chữa. Bài viết nhanh chóng đạt hơn 4 triệu lượt đọc trên Zhihu, tài khoản chính thức của Nhóm Xử lý Ngôn ngữ Tự nhiên Stanford (Stanford NLP) cũng chia sẻ lại, gây chấn động cả giới học thuật lẫn thị trường.
(Tham khảo: Một bài báo khiến cổ phiếu ngành lưu trữ lao dốc)
Hạt nhân của tranh cãi này thực ra khá rõ ràng: Một bài báo hàng đầu về AI do Google chính thức quảng bá quy mô lớn, trực tiếp gây ra làn sóng bán tháo hoảng loạn trên toàn bộ phân khúc cổ phiếu chip toàn cầu, liệu có đang hệ thống hóa việc bóp méo một công trình tiên phong đã được công bố, và thông qua các thí nghiệm cố ý thiếu công bằng để dựng nên một câu chuyện sai lệch về lợi thế hiệu năng?
TurboQuant đã làm gì: Ép mỏng “giấy nháp” của AI xuống còn 1/6
Khi các mô hình ngôn ngữ lớn tạo ra câu trả lời, chúng vừa viết vừa phải quay lại xem lại những nội dung đã tính toán trước đó. Các kết quả trung gian này được lưu tạm trong bộ nhớ đồ họa (VRAM), trong giới chuyên môn gọi là “KV Cache” (bộ đệm khóa–giá trị). Càng kéo dài cuộc hội thoại, “tờ giấy nháp” này càng dày, tiêu tốn càng nhiều VRAM và chi phí cũng vì thế mà tăng cao.
Thuật toán TurboQuant do nhóm nghiên cứu Google phát triển có điểm nổi bật nhất là ép mỏng “tờ giấy nháp” này xuống còn 1/6 so với ban đầu, đồng thời tuyên bố không mất độ chính xác và tốc độ suy luận có thể tăng tối đa tới 8 lần. Bài báo được đăng lần đầu tiên trên nền tảng tiền xuất bản arXiv vào tháng 4 năm 2025, được hội nghị hàng đầu về AI – ICLR 2026 chấp nhận vào tháng 1 năm 2026, và được Google tái đóng gói, quảng bá rộng rãi qua blog chính thức vào ngày 24 tháng 3.
Về mặt kỹ thuật, tư duy đằng sau TurboQuant có thể hiểu đơn giản như sau: Trước hết, dùng một phép biến đổi toán học để “rửa sạch” dữ liệu hỗn tạp thành dạng chuẩn hóa thống nhất; sau đó nén từng phần theo bảng nén tối ưu đã được tính sẵn; cuối cùng dùng một cơ chế sửa lỗi chỉ 1 bit để hiệu chỉnh sai lệch tính toán do nén gây ra. Cộng đồng đã độc lập triển khai và xác minh hiệu quả nén của thuật toán này cơ bản là đúng, và đóng góp toán học ở cấp độ thuật toán là có thật.
Tranh cãi không nằm ở chỗ TurboQuant có dùng được hay không, mà nằm ở việc Google đã làm gì để chứng minh nó “vượt xa các đối thủ cạnh tranh”.
Lá thư công khai của Cao Kiến Dương: Ba cáo buộc, mỗi cáo buộc đều chạm đúng trọng tâm
Vào 22 giờ ngày 27 tháng 3, Cao Kiến Dương đăng một bài viết dài trên Zhihu, đồng thời gửi bình luận chính thức lên nền tảng phản biện mở OpenReview của ICLR. Cao Kiến Dương là tác giả đầu tiên của thuật toán RaBitQ, thuật toán này được công bố năm 2024 tại hội nghị hàng đầu về cơ sở dữ liệu SIGMOD, giải quyết cùng một lớp vấn đề — nén hiệu quả các vector chiều cao.

Cáo buộc của ông gồm ba điểm, mỗi điểm đều được chứng minh bằng email và dòng thời gian cụ thể.
Cáo buộc thứ nhất: Dùng phương pháp cốt lõi của người khác nhưng không hề nhắc tới.
TurboQuant và RaBitQ có một bước then chốt giống nhau trong lõi kỹ thuật: trước khi nén dữ liệu, đều thực hiện một phép “xoay ngẫu nhiên” dữ liệu. Thao tác này nhằm biến đổi dữ liệu vốn có phân bố bất quy tắc thành phân bố đồng đều dễ dự đoán, từ đó giảm mạnh độ khó của quá trình nén. Đây là phần gần gũi và then chốt nhất giữa hai thuật toán.
Chính các tác giả TurboQuant cũng thừa nhận điều này trong phản hồi gửi ban biên tập hội nghị, song lại không hề đề cập rõ ràng mối liên hệ giữa phương pháp này với RaBitQ trong toàn bộ bài báo. Bối cảnh quan trọng hơn là: Majid Daliri, tác giả thứ hai của TurboQuant, chủ động liên hệ nhóm Cao Kiến Dương vào tháng 1 năm 2025 để nhờ hỗ trợ gỡ lỗi phiên bản Python do ông ta viết lại dựa trên mã nguồn RaBitQ. Trong email, ông ta mô tả chi tiết các bước tái hiện và thông tin lỗi — nói cách khác, nhóm TurboQuant am hiểu tường tận chi tiết kỹ thuật của RaBitQ.
Một nhà phản biện ẩn danh của ICLR cũng độc lập chỉ ra hai thuật toán sử dụng cùng một kỹ thuật và yêu cầu thảo luận đầy đủ. Thế nhưng trong phiên bản cuối cùng của bài báo, nhóm TurboQuant không chỉ không bổ sung phần thảo luận này, mà còn chuyển phần mô tả (đã không đầy đủ) về RaBitQ từ thân bài sang phụ lục.
Cáo buộc thứ hai: Gắn mác “không tối ưu về mặt lý thuyết” cho đối phương mà không có căn cứ.
Bài báo TurboQuant trực tiếp gắn nhãn “không tối ưu về mặt lý thuyết” (suboptimal) cho RaBitQ, với lý do phân tích toán học trong RaBitQ “tương đối sơ sài”. Nhưng Cao Kiến Dương chỉ ra rằng phiên bản mở rộng của RaBitQ đã chứng minh chặt chẽ rằng sai số nén của nó đạt tới giới hạn tối ưu toán học — kết luận này được công bố tại một hội nghị hàng đầu về khoa học máy tính lý thuyết.
Vào tháng 5 năm 2025, nhóm Cao Kiến Dương từng giải thích chi tiết tính tối ưu lý thuyết của RaBitQ qua nhiều vòng email. Daliri, tác giả thứ hai của TurboQuant, xác nhận đã thông báo đầy đủ nội dung này tới toàn bộ các tác giả. Thế nhưng bài báo cuối cùng vẫn giữ nguyên cụm từ “không tối ưu”, mà không đưa ra bất kỳ luận cứ phản bác nào.
Cáo buộc thứ ba: Thiết lập điều kiện so sánh thử nghiệm “tay trái trói người, tay phải cầm dao”.
Đây là cáo buộc gây tổn thương mạnh nhất trong toàn bộ văn bản. Cao Kiến Dương chỉ ra rằng bài báo TurboQuant đã chồng chất hai lớp điều kiện thiếu công bằng trong thí nghiệm so sánh tốc độ:
Thứ nhất, RaBitQ cung cấp mã C++ đã được tối ưu (mặc định hỗ trợ đa luồng song song), nhưng nhóm TurboQuant không sử dụng mã này, mà lại dùng phiên bản Python do chính họ dịch lại để kiểm tra RaBitQ. Thứ hai, khi kiểm tra RaBitQ, họ dùng CPU đơn nhân và tắt hoàn toàn đa luồng; trong khi TurboQuant lại được kiểm tra trên GPU NVIDIA A100.
Hệ quả của hai điều kiện này cộng dồn là: người đọc thấy kết luận “RaBitQ chậm hơn TurboQuant nhiều bậc độ lớn”, nhưng lại không hề biết rằng kết luận ấy được rút ra trong điều kiện nhóm Google đã trói tay chân đối thủ rồi mới tổ chức chạy đua. Bài báo không tiết lộ đầy đủ sự khác biệt trong các điều kiện thử nghiệm này.
Phản hồi của Google: “Xoay ngẫu nhiên là kỹ thuật phổ quát, không thể trích dẫn từng bài một”
Theo tiết lộ của Cao Kiến Dương, trong email phản hồi gửi tháng 3 năm 2026, nhóm TurboQuant cho biết: “Việc sử dụng phép xoay ngẫu nhiên và phép biến đổi Johnson-Lindenstrauss đã trở thành kỹ thuật tiêu chuẩn trong lĩnh vực này; chúng tôi không thể trích dẫn từng bài báo nào từng áp dụng những phương pháp này.”
Nhóm Cao Kiến Dương cho rằng đây là hành vi đánh tráo khái niệm: Vấn đề không phải là có cần trích dẫn tất cả các bài báo từng dùng phép xoay ngẫu nhiên hay không, mà RaBitQ là công trình đầu tiên, trong cùng một thiết lập bài toán hoàn toàn giống nhau, kết hợp thành công phương pháp này với nén vector và chứng minh tính tối ưu của nó — vì vậy bài báo TurboQuant hoàn toàn có nghĩa vụ mô tả chính xác mối quan hệ giữa hai công trình.
Tài khoản X chính thức của Nhóm Xử lý Ngôn ngữ Tự nhiên Stanford (Stanford NLP Group) đã chia sẻ tuyên bố của Cao Kiến Dương. Nhóm Cao Kiến Dương đã đăng bình luận công khai trên nền tảng OpenReview của ICLR, đồng thời gửi khiếu nại chính thức tới Chủ tịch hội nghị ICLR và Ủy ban Đạo đức, và sẽ tiếp tục công bố báo cáo kỹ thuật chi tiết trên arXiv.

Bloger kỹ thuật độc lập Dario Salvati đưa ra đánh giá tương đối khách quan trong phân tích của mình: TurboQuant thực sự có đóng góp toán học đáng kể, nhưng mối liên hệ giữa nó và RaBitQ sâu sắc và mật thiết hơn nhiều so với cách trình bày trong bài báo.
90 tỷ USD vốn hóa bốc hơi: Tranh cãi học thuật cộng hưởng với hoảng loạn thị trường
Thời điểm xảy ra tranh cãi học thuật này cực kỳ nhạy cảm. Sau khi Google đăng tải TurboQuant qua blog chính thức vào ngày 24 tháng 3, toàn bộ phân khúc cổ phiếu chip lưu trữ toàn cầu hứng chịu làn sóng bán tháo dữ dội. Theo báo cáo của CNBC và nhiều hãng truyền thông khác, Micron Technology giảm liên tiếp trong sáu phiên giao dịch, tổng跌幅 vượt 20%; SanDisk giảm 11% trong một ngày; SK Hynix của Hàn Quốc giảm khoảng 6%, Samsung Electronics giảm gần 5%, và Kioxia của Nhật Bản giảm khoảng 6%. Lý do hoảng loạn của thị trường rất đơn giản và trực diện: Nếu nén phần mềm có thể giảm nhu cầu bộ nhớ cho suy luận AI xuống 6 lần, triển vọng nhu cầu chip lưu trữ sẽ bị điều chỉnh giảm một cách cấu trúc.
Joseph Moore, nhà phân tích của Morgan Stanley, trong báo cáo ngày 26 tháng 3 đã bác bỏ lập luận này và duy trì xếp hạng “mua mạnh” cho Micron và SanDisk. Ông Moore chỉ ra rằng TurboQuant chỉ nén loại bộ đệm đặc thù KV Cache chứ không phải toàn bộ dung lượng bộ nhớ sử dụng, và coi đây là “một cải tiến năng suất bình thường”. Nhà phân tích Andrew Rocha của Wells Fargo cũng viện dẫn nghịch lý Jevons để cho rằng việc nâng cao hiệu suất giúp giảm chi phí, từ đó có thể thúc đẩy triển khai AI quy mô lớn hơn, cuối cùng làm tăng nhu cầu bộ nhớ.
Cũ nhưng đóng gói mới: Rủi ro trong chuỗi truyền dẫn từ nghiên cứu AI đến câu chuyện thị trường
Theo phân tích của bloger kỹ thuật Ben Pouladian, bài báo TurboQuant đã được công bố công khai từ tháng 4 năm 2025, không phải một nghiên cứu mới. Việc Google tái đóng gói và quảng bá bài báo qua blog chính thức vào ngày 24 tháng 3 khiến thị trường định giá nó như một đột phá hoàn toàn mới. Chiến lược quảng bá “cũ nhưng ra mắt mới” này, cộng với khả năng tồn tại sai lệch trong các thí nghiệm của bài báo, phản ánh rủi ro hệ thống trong chuỗi truyền dẫn từ bài báo học thuật đến câu chuyện thị trường trong lĩnh vực AI.
Đối với các nhà đầu tư vào cơ sở hạ tầng AI, khi một bài báo tuyên bố đạt được cải thiện hiệu năng “nhiều bậc độ lớn”, điều đầu tiên cần đặt câu hỏi là điều kiện so sánh cơ sở có công bằng hay không.
Nhóm Cao Kiến Dương đã khẳng định sẽ tiếp tục thúc đẩy giải quyết chính thức vấn đề này. Phía Google đến nay chưa đưa ra phản hồi chính thức nào đối với các cáo buộc cụ thể trong lá thư công khai.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News













