
Điều có thể khiến GPT và Claude “nắm tay” nhau là cùng phản đối Lầu Năm Góc?
Tuyển chọn TechFlowTuyển chọn TechFlow

Điều có thể khiến GPT và Claude “nắm tay” nhau là cùng phản đối Lầu Năm Góc?
Lần này, hai người nắm tay nhau, nhưng có lẽ chỉ kéo dài vài tiếng đồng hồ.
Tác giả: Khổ Lý, TechFlow
Vài ngày trước, một bức ảnh lan truyền mạnh mẽ trên mạng.
Ấn Độ tổ chức một hội nghị AI, Thủ tướng Modi đứng trên sân khấu, hai bên là dãy các lãnh đạo công nghệ Silicon Valley. Trong phần chụp ảnh tập thể, ông Modi nắm tay người bên cạnh và giơ cao lên đầu; những người còn lại cũng làm theo, nối tay nhau thành một vòng tròn – khung cảnh trông rất đoàn kết.
Nhưng có đúng hai người không tham gia bắt tay.

CEO của OpenAI và CEO của Anthropic—hai nhà sáng lập đằng sau ChatGPT và Claude—đứng sát nhau, mỗi người giơ nắm đấm lên cao.
Không bắt tay, không nhìn nhau, giống như hai học sinh bị giáo viên ép ngồi cùng bàn mà chẳng ưa gì nhau.
Hai công ty này mấy năm nay tranh đấu ác liệt: Claude được phát triển bởi nhóm nhân sự rời khỏi OpenAI; cả hai giành giật người dùng, khách hàng doanh nghiệp và nguồn vốn đầu tư. Ngay trong dịp trận chung kết Super Bowl năm nay, Anthropic còn chi tiền mua quảng cáo để chế giễu ChatGPT sắp đưa quảng cáo vào sản phẩm.
Vì vậy, việc họ không bắt tay là điều hoàn toàn bình thường.
Tuy nhiên hôm nay, họ đã bắt tay—vì Lầu Năm Góc.
Cụ thể như sau.
Anthropic—công ty đứng sau Claude—năm ngoái ký hợp đồng với Bộ Quốc phòng Mỹ trị giá tối đa 200 triệu USD. Claude là mô hình AI đầu tiên được triển khai trên mạng nội bộ mật của quân đội Mỹ, hỗ trợ phân tích tình báo, lập kế hoạch tác chiến và các nhiệm vụ khác.
Nhưng Anthropic đặt ra hai “đường ranh giới đỏ” trong hợp đồng:
Claude không được sử dụng để giám sát quy mô lớn công dân Mỹ, cũng không được dùng cho vũ khí tự chủ không có sự tham gia của con người. (Xem thêm: Bảy mươi hai giờ khủng hoảng danh tính của Anthropic)
Thế nhưng Lầu Năm Góc từ chối chấp nhận.
Yêu cầu của họ chỉ gói gọn trong bốn chữ: “không giới hạn”. Đã mua công cụ thì phải được tự do sử dụng; một công ty công nghệ nào đó có quyền gì mà quy định cho Lầu Năm Góc được làm gì và không được làm gì?
Hôm thứ Ba tuần trước, Bộ trưởng Quốc phòng Hegseth trực tiếp đưa ra tối hậu thư với CEO Anthropic: phải đồng ý trước 17 giờ 01 phút thứ Sáu, nếu không sẽ chịu mọi hậu quả.
Anthropic từ chối.
CEO công ty này đăng tuyên bố công khai, đại ý rằng: “Chúng tôi hiểu rõ vai trò then chốt của AI đối với an ninh quốc phòng Mỹ, song trong một số trường hợp, AI có thể gây tổn hại chứ không bảo vệ các giá trị dân chủ. Chúng tôi không thể chấp nhận yêu cầu này vì lương tâm mình.”

Đại diện đàm phán của Lầu Năm Góc—Phó Bộ trưởng Quốc phòng Emil Michael—sau đó đăng bài trên mạng xã hội gọi ông này là “kẻ lừa đảo”, cáo buộc ông mang “tâm lý thần thánh”, coi thường an ninh quốc gia.
Cái bắt tay ngắn ngủi
Sau đó, một chuyện bất ngờ xảy ra.
400 nhân viên của OpenAI và Google ký chung một lá thư công khai mang tiêu đề “Chúng tôi sẽ không để bị chia rẽ”.
Trong thư nêu rõ: Lầu Năm Góc đang lần lượt tiếp cận từng công ty AI để thương lượng, nhằm khiến các công ty khác chấp nhận những điều kiện mà Anthropic từ chối—dùng nỗi sợ để chia rẽ từng doanh nghiệp.
CEO OpenAI cũng gửi thư nội bộ tới toàn thể nhân viên, khẳng định OpenAI chia sẻ cùng “đường ranh giới đỏ” với Anthropic:
Không thực hiện giám sát quy mô lớn; không phát triển vũ khí sát thương tự chủ.

Hai công ty từng từ chối bắt tay vài ngày trước, bất ngờ đứng chung phe vì áp lực từ Lầu Năm Góc.
Nhưng sự đoàn kết này có lẽ chỉ kéo dài vài tiếng đồng hồ.
Đúng 17 giờ 01 phút thứ Sáu, thời hạn tối hậu thư của Lầu Năm Góc hết hiệu lực. Anthropic vẫn không ký hợp đồng.
Một công ty công nghệ Mỹ định giá 380 tỷ USD sẵn sàng chấp nhận rủi ro hợp đồng trị giá 200 triệu USD bị hủy bỏ, để từ chối Bộ Quốc phòng Mỹ. Trước đây, loại sự việc này thường chỉ dẫn đến việc chấm dứt hợp đồng và đổi nhà cung cấp. Nhưng lần này, phản ứng từ Washington hoàn toàn vượt xa mức độ thuần thương mại.
Trump đăng bài trên Truth Social khoảng một giờ sau, gọi Anthropic là “những kẻ điên cuồng cánh tả”, cáo buộc họ cố gắng đặt mình trên Hiến pháp, coi mạng sống binh sĩ Mỹ như trò đùa.
Ông yêu cầu tất cả cơ quan liên bang lập tức ngừng sử dụng công nghệ của Anthropic.
Ngay sau đó, Bộ trưởng Quốc phòng Hegseth tuyên bố đưa Anthropic vào danh sách “rủi ro an ninh chuỗi cung ứng”. Nhãn này thường dành riêng cho các công ty như Huawei. Ý nghĩa rất rõ ràng: Mọi nhà thầu làm ăn với quân đội Mỹ đều không được phép sử dụng sản phẩm của Anthropic.

Anthropic tuyên bố sẽ khởi kiện.
Cùng đêm đó, OpenAI—trước đó vừa bày tỏ lập trường thống nhất với Anthropic—lại ký thỏa thuận với Lầu Năm Góc.
Vấn đề ý thức hệ
OpenAI nhận được gì?
Vị trí để trống sau khi Claude bị loại: nhà cung cấp AI cho mạng nội bộ mật của quân đội Mỹ. Tuy nhiên, OpenAI đưa ra ba điều kiện với Lầu Năm Góc: không giám sát quy mô lớn, không phát triển vũ khí tự chủ, và mọi quyết định mang rủi ro cao đều phải có sự tham gia của con người.
Lầu Năm Góc đáp: “Được.”
Bạn không nhìn nhầm đâu. Những điều kiện mà Anthropic đàm phán suốt nhiều tuần trời không được chấp nhận, chuyển sang một công ty khác đề xuất, chỉ vài ngày đã đạt được thỏa thuận?
Dĩ nhiên, hai phương án không hoàn toàn giống nhau.
Anthropic đòi thêm một lớp bảo đảm: họ cho rằng luật pháp hiện hành chưa theo kịp khả năng của AI—ví dụ AI có thể hợp pháp mua và tổng hợp dữ liệu định vị, lịch sử duyệt web, thông tin mạng xã hội của bạn, tạo ra hiệu quả tương đương giám sát, nhưng từng bước đều hợp pháp.
Anthropic nhấn mạnh: Chỉ viết bốn chữ “không giám sát” là vô nghĩa; lỗ hổng này phải được bịt kín. OpenAI không kiên quyết giữ điểm này, mà chấp nhận lập luận của Lầu Năm Góc rằng luật hiện hành đã đủ.
Nhưng nếu bạn nghĩ đây chỉ là tranh cãi về một điều khoản thì quá ngây thơ. Cuộc đàm phán từ đầu đã không chỉ xoay quanh các điều khoản.
David Sacks—“hoàng đế AI” của Nhà Trắng—đã công khai chỉ trích Anthropic xây dựng “AI thức tỉnh” (woke AI), tức ưu tiên ý thức hệ và chủ nghĩa chính trị đúng đắn; một quan chức cấp cao của Lầu Năm Góc từng nói với báo chí rằng vấn đề của Dario (CEO Anthropic) mang tính ý thức hệ, “chúng tôi biết mình đang làm việc với ai”.
xAI của Elon Musk—đối thủ trực tiếp của Anthropic—tuần này liên tục tấn công Anthropic trên X, gọi công ty này là “kẻ thù của nền văn minh phương Tây”.
CEO Anthropic năm ngoái không dự lễ nhậm chức của Trump. Còn CEO OpenAI đã đi.

Giết gà dọa khỉ
Hãy tổng kết những gì đã xảy ra.
Cùng nguyên tắc, cùng “đường ranh giới đỏ”, thế mà Anthropic chỉ vì đòi thêm một lớp bảo đảm, đứng sai phe và thể hiện thái độ sai cách, đã bị gắn mác “mối đe dọa an ninh quốc gia Mỹ” ngang tầm Huawei.
OpenAI giảm nhẹ một chút yêu cầu, duy trì quan hệ tốt đẹp, nên giành được hợp đồng. Bạn gọi đây là chiến thắng của nguyên tắc, hay chỉ là “giá cả của nguyên tắc”?
Việc phản đối hợp đồng với Lầu Năm Góc thực ra không phải lần đầu.
Năm 2018, hơn 4.000 nhân viên Google ký kiến nghị, hàng chục người từ chức để phản đối công ty tham gia dự án Maven của Lầu Năm Góc—dự án sử dụng AI phân tích video do máy bay không người lái ghi lại nhằm giúp quân đội xác định mục tiêu nhanh hơn.
Google cuối cùng rút lui—không gia hạn hợp đồng. Nhân viên thắng.
8 năm trôi qua, cùng tranh cãi ấy lại tái diễn. Nhưng lần này luật chơi đã hoàn toàn thay đổi. Một công ty Mỹ tuyên bố sẵn sàng làm ăn với quân đội, nhưng có hai việc tuyệt đối không làm. Phản ứng từ Chính phủ Mỹ là loại công ty đó ra khỏi toàn bộ hệ thống liên bang.
Hơn nữa, nhãn “rủi ro an ninh chuỗi cung ứng” gây tổn hại nghiêm trọng hơn hẳn việc mất đi một hợp đồng 200 triệu USD.
Doanh thu năm nay của Anthropic ước tính khoảng 14 tỷ USD—hợp đồng 200 triệu chỉ chiếm chưa đến 1,5%. Nhưng nhãn này nghĩa là bất kỳ công ty nào có giao dịch với quân đội Mỹ đều không được dùng Claude.
Các công ty này không cần đồng thuận với lập trường của Lầu Năm Góc; họ chỉ cần thực hiện một đánh giá rủi ro đơn giản: tiếp tục dùng Claude → có thể mất hợp đồng chính phủ; chuyển sang mô hình khác → mọi chuyện ổn thỏa.
Quyết định rất dễ dàng. Đây mới là tín hiệu thực sự của sự việc.
Việc Anthropic có trụ vững được hay không không quan trọng bằng việc công ty tiếp theo còn dám trụ hay không. Họ sẽ xem xét kết quả này, cân nhắc chi phí của việc giữ vững nguyên tắc, rồi đưa ra một quyết định hoàn toàn hợp lý.
Quay lại bức ảnh ở Ấn Độ: tất cả đều bắt tay giơ cao, duy chỉ hai người kia nắm chặt nắm đấm riêng.
Có lẽ đó mới là trạng thái bình thường.
Các công ty AI có thể chia sẻ cùng nguyên tắc, nhưng bàn tay không nhất thiết phải bắt tay nhau.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News











