TechFlow đưa tin, ngày 9 tháng 4, theo báo cáo của CoinTelegraph, Tòa phúc thẩm Quận Columbia (Mỹ) đã bác đơn khẩn cấp của công ty trí tuệ nhân tạo Anthropic, duy trì đánh giá của Bộ Quốc phòng Mỹ về “rủi ro đối với chuỗi cung ứng an ninh quốc gia” liên quan đến công ty này. Cả ba thẩm phán đều cho rằng lợi ích của chính phủ trong việc kiểm soát công nghệ AI trong thời kỳ xung đột quân sự có ưu tiên cao hơn so với những tổn thất tài chính và uy tín mà Anthropic có thể phải chịu đựng. Nhãn phân loại này trước đây chưa từng được áp dụng đối với bất kỳ doanh nghiệp nào có trụ sở tại Mỹ và sẽ khiến các nhà thầu của Lầu Năm Góc không thể sử dụng mô hình Claude do Anthropic phát triển.
Sự việc bắt nguồn từ hợp đồng ký giữa hai bên vào tháng 7 năm 2025; các cuộc đàm phán sau đó đổ vỡ vào tháng 2 năm 2026—khi chính phủ yêu cầu Anthropic cho phép sử dụng mô hình Claude trong lĩnh vực quân sự mà không giới hạn, trong khi Anthropic kiên quyết phản đối việc áp dụng mô hình này vào vũ khí tự chủ gây chết người và giám sát quy mô lớn trong nước. Sau đó, cựu Tổng thống Trump ra lệnh cho tất cả các cơ quan liên bang ngừng toàn bộ việc sử dụng sản phẩm của Anthropic, và Anthropic đã khởi kiện vào tháng 3. Hiện nay, vụ việc đang được xử lý song song trên hai tuyến tố tụng: tại Tòa án Liên bang khu vực California và tại Tòa án Liên bang Quận Columbia.




