
Bảy mươi hai giờ của cuộc khủng hoảng danh tính Anthropic
Tuyển chọn TechFlowTuyển chọn TechFlow

Bảy mươi hai giờ của cuộc khủng hoảng danh tính Anthropic
Điểm kết thúc của cuộc khủng hoảng danh tính thường là sự biến mất của danh tính.
Tác giả: Ada, TechFlow
Thứ Ba, ngày 24 tháng Hai. Washington, Lầu Năm Góc.
Dario Amodei, Giám đốc điều hành Anthropic, ngồi đối diện Bộ trưởng Quốc phòng Mỹ Pete Hegseth. Theo nhiều nguồn tin thân cận được NPR và CNN dẫn lại, bầu không khí cuộc gặp “lịch sự”, nhưng nội dung thì hoàn toàn không chút nhượng bộ.
Hegseth đưa ra tối hậu thư: Trước 17 giờ 01 phút thứ Sáu, Anthropic phải dỡ bỏ mọi hạn chế về việc sử dụng Claude trong quân sự, cho phép Lầu Năm Góc áp dụng mô hình này vào “mọi mục đích hợp pháp”, bao gồm cả việc định vị tự chủ cho vũ khí và giám sát quy mô lớn trong nước.
Nếu không tuân thủ, hợp đồng trị giá 200 triệu đô la Mỹ sẽ bị hủy bỏ; Đạo luật Sản xuất Quốc phòng sẽ được kích hoạt để trưng thu bắt buộc; Anthropic sẽ bị liệt vào danh sách “rủi ro chuỗi cung ứng”, tương đương với việc xếp công ty này ngang hàng các thực thể thù địch như Nga và Trung Quốc.
Cùng ngày, Anthropic công bố phiên bản thứ ba của “Chính sách Mở rộng Có Trách nhiệm” (RSP 3.0), lặng lẽ xóa bỏ cam kết cốt lõi nhất từ khi thành lập: “Không huấn luyện các mô hình mạnh hơn nếu không đảm bảo đầy đủ các biện pháp an toàn.”
Cũng cùng ngày, Elon Musk đăng bài trên X với nội dung: “Anthropic đã đánh cắp dữ liệu huấn luyện ở quy mô lớn — đây là sự thật.” Đồng thời, ghi chú cộng đồng trên X bổ sung thông tin rằng Anthropic đã chi 1,5 tỷ đô la Mỹ để dàn xếp vụ kiện liên quan đến việc sử dụng sách vi phạm bản quyền nhằm huấn luyện Claude.
Trong vòng 72 giờ, công ty AI từng tự nhận “có linh hồn” này đồng thời đảm nhận ba vai trò: kẻ hy sinh vì an toàn, kẻ trộm sở hữu trí tuệ và tên phản bội Lầu Năm Góc.
Vai nào mới là thật?
Có thể tất cả đều là thật.
Lầu Năm Góc: “Hoặc tuân lệnh, hoặc biến đi”
Lớp đầu tiên của câu chuyện rất đơn giản.
Anthropic là công ty AI đầu tiên được cấp quyền truy cập mức độ mật của Bộ Quốc phòng Hoa Kỳ. Hợp đồng được ký vào mùa hè năm ngoái, với giá trị tối đa 200 triệu đô la Mỹ. Sau đó, OpenAI, Google và xAI cũng lần lượt giành được các hợp đồng có quy mô tương đương.
Theo báo Al Jazeera, Claude từng được sử dụng trong một chiến dịch quân sự của Mỹ vào tháng Một năm nay, với cáo buộc chiến dịch này liên quan đến việc bắt cóc Tổng thống Venezuela Nicolás Maduro.
Tuy nhiên, Anthropic đặt ra hai “đường đỏ”: không hỗ trợ định vị vũ khí tự chủ hoàn toàn, và không hỗ trợ giám sát quy mô lớn đối với công dân Mỹ. Anthropic cho rằng độ tin cậy của trí tuệ nhân tạo hiện tại chưa đủ để kiểm soát vũ khí, và hiện vẫn chưa tồn tại bất kỳ đạo luật hay quy định nào điều chỉnh việc ứng dụng AI trong giám sát quy mô lớn.
Lầu Năm Góc không chấp nhận điều này.
David Sacks, cố vấn AI của Nhà Trắng, hồi tháng Mười năm ngoái từng đăng tải trên X lời cáo buộc công khai nhằm vào Anthropic: “Dùng nỗi sợ làm vũ khí để thao túng quy định.”
Các đối thủ cạnh tranh đã khuất phục. OpenAI, Google và xAI đều đồng ý để quân đội sử dụng AI của họ trong “mọi tình huống hợp pháp”. Grok của Musk vừa được phê duyệt để tiếp cận hệ thống mật vào tuần này.
Anthropic là công ty cuối cùng còn đứng thẳng.
Tính đến thời điểm bài viết được đăng tải, Anthropic khẳng định trong tuyên bố mới nhất rằng họ “không có ý định nhượng bộ”. Tuy nhiên, thời hạn chót 17 giờ 01 phút thứ Sáu đã gần kề.
Một cựu điều phối viên liên lạc giữa Bộ Tư pháp và Bộ Quốc phòng, giấu tên, bày tỏ sự bối rối với CNN: “Làm sao bạn có thể vừa tuyên bố một công ty là ‘rủi ro chuỗi cung ứng’, vừa ép buộc công ty ấy làm việc cho quân đội mình?”
Một câu hỏi hay — nhưng điều này nằm ngoài phạm vi quan tâm của Lầu Năm Góc. Điều họ quan tâm duy nhất là: nếu Anthropic từ chối thỏa hiệp, họ sẽ dùng biện pháp cưỡng chế — hoặc biến Anthropic thành “kẻ bị Washington ruồng bỏ”.
Tấn công “chưng cất”: Một cáo buộc mang tính vả mặt
Ngày 23 tháng Hai, Anthropic đăng một bài blog với ngôn ngữ gay gắt, cáo buộc ba công ty AI Trung Quốc tiến hành “tấn công chưng cất ở cấp độ công nghiệp” nhằm vào Claude.
Các bị cáo là DeepSeek, Moonshot AI và MiniMax.
Anthropic cáo buộc các công ty này đã tạo ra hơn 24.000 tài khoản giả để tương tác hơn 16 triệu lần với Claude, nhằm trích xuất có chủ đích những khả năng cốt lõi của mô hình này trong suy luận tác tử, gọi công cụ và lập trình.
Anthropic định tính sự việc này là mối đe dọa an ninh quốc gia, đồng thời khẳng định các mô hình sau khi chưng cất “khó lòng giữ lại các rào chắn an toàn”, có thể bị chính phủ chuyên chế sử dụng vào tấn công mạng, lan truyền tin giả và giám sát quy mô lớn.
Kể chuyện thì hoàn hảo, thời điểm cũng quá hoàn hảo.
Sự việc xảy ra đúng vào lúc chính quyền Trump vừa nới lỏng các quy định kiểm soát xuất khẩu chip sang Trung Quốc, và cũng đúng vào thời điểm Anthropic cần “đạn dược” để vận động hành lang cho lập trường của mình về kiểm soát xuất khẩu chip.
Nhưng Musk đã bắn phát súng đầu tiên: “Anthropic đã đánh cắp dữ liệu huấn luyện ở quy mô lớn và phải chi hàng tỷ đô la để dàn xếp. Đây là sự thật.”

Tory Green, đồng sáng lập công ty cơ sở hạ tầng AI IO.Net, bình luận: “Các bạn lấy dữ liệu từ khắp nơi trên mạng để huấn luyện mô hình của mình, rồi người khác học theo các bạn thông qua API công khai của các bạn — thế mà lại gọi là ‘tấn công chưng cất’ sao?”
Anthropic gọi chưng cất là “tấn công”, nhưng thực tế trong ngành AI, đây là chuyện thường ngày. OpenAI dùng chưng cất để nén GPT-4, Google dùng nó để tối ưu Gemini, thậm chí chính Anthropic cũng đang làm điều tương tự. Sự khác biệt duy nhất là lần này, chính Anthropic lại trở thành nạn nhân bị chưng cất.
Theo Giáo sư AI Erik Cambria thuộc Đại học Công nghệ Nanyang (Singapore) phát biểu với CNBC: “Ranh giới giữa sử dụng hợp pháp và lợi dụng ác ý thường rất mờ nhạt.”
Điều mỉa mai hơn nữa là Anthropic vừa chi 1,5 tỷ đô la Mỹ để dàn xếp vụ kiện liên quan đến việc huấn luyện Claude bằng sách vi phạm bản quyền. Họ lấy dữ liệu từ khắp nơi trên mạng để huấn luyện mô hình, rồi lại cáo buộc người khác học theo mình thông qua API công khai. Đây không chỉ là hành vi “hai mặt”, mà là “ba mặt”.
Anthropic vốn muốn đóng vai nạn nhân, nhưng cuối cùng lại bị lật tẩy thành bị cáo.
Tháo dỡ cam kết an toàn: RSP 3.0
Cùng ngày đối đầu với Lầu Năm Góc và đấu đá với Thung lũng Silicon, Anthropic công bố phiên bản thứ ba của Chính sách Mở rộng Có Trách nhiệm.
Jared Kaplan, nhà khoa học trưởng của Anthropic, trong một cuộc phỏng vấn với giới truyền thông, giải thích: “Chúng tôi cho rằng việc ngừng huấn luyện mô hình AI sẽ chẳng giúp ích gì cho ai cả. Trong bối cảnh AI phát triển nhanh chóng, việc đơn phương cam kết… trong khi các đối thủ lại đang lao nhanh hết tốc lực, là điều vô nghĩa.”
Nói cách khác: Kẻ khác bất chấp đạo lý, thì chúng ta cũng thôi diễn vai.
Hai phiên bản RSP 1.0 và 2.0 đều dựa trên một cam kết cứng nhắc: nếu năng lực mô hình vượt quá phạm vi kiểm soát của các biện pháp an toàn, việc huấn luyện sẽ tạm dừng. Cam kết này từng giúp Anthropic xây dựng danh tiếng độc nhất vô nhị trong giới an toàn AI.
Nhưng RSP 3.0 đã xóa bỏ cam kết đó.
Thay vào đó là một khuôn khổ “linh hoạt” hơn, phân chia các biện pháp an toàn do Anthropic tự thực hiện và các khuyến nghị an toàn đòi hỏi sự hợp tác toàn ngành thành hai luồng riêng biệt. Mỗi 3–6 tháng, Anthropic sẽ công bố một báo cáo rủi ro và mời các chuyên gia bên ngoài thẩm định.
Có vẻ rất trách nhiệm chăng?
Chris Painter, chuyên gia đánh giá độc lập thuộc tổ chức phi lợi nhuận METR, sau khi xem bản thảo sớm của chính sách, nhận xét: “Điều này cho thấy Anthropic đang bước vào ‘chế độ phân loại ưu tiên’, bởi vì các phương pháp đánh giá và giảm thiểu rủi ro không theo kịp tốc độ tăng trưởng năng lực mô hình. Đây càng chứng minh rõ hơn rằng xã hội chưa sẵn sàng đối mặt với những rủi ro thảm khốc tiềm tàng từ AI.”
Theo báo TIME, Anthropic đã dành gần một năm để thảo luận nội bộ về việc sửa đổi chính sách này; CEO Amodei và Hội đồng quản trị đã biểu quyết thông qua toàn bộ. Lý do chính thức đưa ra là: chính sách ban đầu được thiết kế nhằm thúc đẩy sự đồng thuận trong ngành, nhưng thực tế ngành lại hoàn toàn không bắt kịp. Chính quyền Trump theo đuổi chính sách buông lỏng phát triển AI, thậm chí còn tìm cách bãi bỏ các quy định liên bang và tiểu bang. Luật liên bang về AI vẫn còn rất xa vời. Dù vào năm 2023, việc xây dựng một khuôn khổ quản trị toàn cầu vẫn còn khả thi, thì ba năm trôi qua, cánh cửa ấy rõ ràng đã khép chặt.
Một nhà nghiên cứu chuyên theo dõi quản trị AI, giấu tên, nói thẳng hơn: “RSP là tài sản thương hiệu quý giá nhất của Anthropic. Việc xóa bỏ cam kết tạm dừng huấn luyện giống như một công ty thực phẩm hữu cơ âm thầm xé bỏ hai chữ ‘hữu cơ’ khỏi bao bì, rồi tuyên bố rằng giờ đây quy trình kiểm tra của họ ‘minh bạch hơn’.”
Sự xé rách bản sắc dưới bóng估值 380 tỷ đô la Mỹ
Đầu tháng Hai, Anthropic hoàn tất vòng gây quỹ 30 tỷ đô la Mỹ với định giá 380 tỷ đô la Mỹ, trong đó Amazon là nhà đầu tư chủ chốt. Kể từ khi thành lập, công ty đã đạt doanh thu hàng năm 14 tỷ đô la Mỹ. Trong ba năm qua, con số này tăng hơn 10 lần mỗi năm.
Cùng lúc đó, Lầu Năm Góc đe dọa đưa Anthropic vào danh sách đen; Musk công khai cáo buộc công ty đánh cắp dữ liệu; cam kết an toàn cốt lõi của chính Anthropic bị xóa bỏ; và ông Mrinank Sharma, người phụ trách an toàn AI của Anthropic, sau khi từ chức, đăng trên X: “Thế giới đang đứng trước nguy hiểm.”
Mâu thuẫn chăng?
Có thể mâu thuẫn chính là bản chất của Anthropic.
Công ty này được thành lập bởi các cựu lãnh đạo OpenAI, vì lo ngại OpenAI đang tiến quá nhanh trên vấn đề an toàn. Sau đó, họ tự thành lập một công ty, xây dựng các mô hình mạnh hơn với tốc độ nhanh hơn — đồng thời cảnh báo cả thế giới về mức độ nguy hiểm của những mô hình ấy.
Mô hình kinh doanh của Anthropic có thể tóm gọn trong một câu: “Chúng tôi sợ AI hơn bất kỳ ai, nên hãy trả tiền cho chúng tôi để xây dựng AI.”
Câu chuyện này vận hành hoàn hảo trong giai đoạn 2023–2024. An toàn AI là chủ đề “nóng” tại Washington, và Anthropic là nhà vận động hành lang được ưa chuộng nhất.
Năm 2026, xu hướng đã đổi chiều.
Thuật ngữ “woke AI” trở thành nhãn dán để công kích; các đạo luật quản lý AI cấp tiểu bang bị Nhà Trắng chặn đứng; Dự luật SB 53 của California — do Anthropic ủng hộ — dù đã được ký thành luật, nhưng ở cấp liên bang thì hoàn toàn trống vắng.
“Lá bài an toàn” của Anthropic đang dần chuyển từ “lợi thế khác biệt” sang “tài sản chính trị tiêu cực”.
Anthropic đang thực hiện một màn cân bằng phức tạp: họ cần đủ “an toàn” để duy trì thương hiệu, nhưng cũng cần đủ “linh hoạt” để không bị thị trường và chính phủ đào thải. Vấn đề nằm ở chỗ: dung sai từ cả hai phía đều đang ngày càng thu hẹp.
Câu chuyện an toàn còn đáng giá bao nhiêu?
Nếu đặt ba sự việc này lên nhau, bức tranh sẽ trở nên rõ ràng.
Cáo buộc các công ty Trung Quốc “chưng cất” Claude nhằm củng cố lập luận vận động hành lang cho kiểm soát xuất khẩu chip; xóa bỏ cam kết tạm dừng an toàn để không tụt hậu trong cuộc chạy đua vũ trang; từ chối yêu cầu của Lầu Năm Góc về vũ khí tự chủ nhằm giữ lại lớp áo đạo đức cuối cùng.
Mỗi bước đều có logic riêng, nhưng các bước ấy lại mâu thuẫn với nhau.
Bạn không thể vừa khẳng định việc “chưng cất” mô hình của mình bởi các công ty Trung Quốc sẽ đe dọa an ninh quốc gia, vừa xóa bỏ cam kết ngăn chặn mô hình của chính mình mất kiểm soát. Nếu mô hình thực sự nguy hiểm đến vậy, bạn cần thận trọng hơn — chứ không phải liều lĩnh hơn.
Trừ khi bạn là Anthropic.
Trong ngành AI, bản sắc không được xác định bởi tuyên bố của bạn, mà bởi bảng cân đối kế toán của bạn. Câu chuyện “an toàn” của Anthropic, về bản chất, là một khoản “phí thương hiệu”.
Ở giai đoạn đầu của cuộc chạy đua vũ trang AI, khoản phí này rất giá trị. Các nhà đầu tư sẵn sàng trả định giá cao hơn cho “AI có trách nhiệm”, chính phủ sẵn sàng bật đèn xanh cho “AI đáng tin cậy”, và khách hàng sẵn sàng trả thêm tiền cho “AI an toàn hơn”.
Nhưng đến năm 2026, khoản phí này đang bốc hơi.
Điều Anthropic đang đối mặt hiện nay không còn là câu hỏi “có nên nhượng bộ hay không”, mà là bài toán “ưu tiên nhượng bộ với ai trước”. Nhượng bộ Lầu Năm Góc — thương hiệu tổn hại. Nhượng bộ đối thủ — cam kết an toàn hóa thành tro bụi. Nhượng bộ nhà đầu tư — cả hai phía đều phải chịu thiệt.
17 giờ 01 phút thứ Sáu, Anthropic sẽ đưa ra câu trả lời của mình.
Nhưng bất kể câu trả lời ấy là gì, một điều đã chắc chắn: Anthropic — từng tồn tại nhờ khẩu hiệu “Chúng tôi khác OpenAI” — giờ đây đang dần trở nên giống tất cả những người còn lại.
Điểm kết thúc của cuộc khủng hoảng bản sắc, thường là sự biến mất của bản sắc.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News











