
Người tạo robot cho OpenAI đã nhìn thấy một tương lai đáng sợ
Tuyển chọn TechFlowTuyển chọn TechFlow

Người tạo robot cho OpenAI đã nhìn thấy một tương lai đáng sợ
Khi một người phụ trách chế tạo robot từ chức vì lo ngại robot sẽ giết người, chính sự việc này đã nói lên rất nhiều điều.
Tác giả: Geek Bạn Bè
Ngày 7 tháng 3 năm 2026, khi tôi đọc được tin Caitlin Kalinowski từ chức, phản ứng đầu tiên của tôi không phải là kinh ngạc, mà là — “Cuối cùng cũng có người dùng hành động để lên tiếng”.
Kalinowski là Trưởng bộ phận Kỹ thuật Phần cứng và Robot của OpenAI, mới gia nhập công ty vào tháng 11 năm 2024 và rời đi chưa đầy một năm rưỡi sau đó.
Lý do bà đưa ra trực tiếp và nặng nề — bà không thể chấp nhận những hệ lụy tiềm tàng từ hợp đồng giữa OpenAI và Bộ Quốc phòng Hoa Kỳ, đặc biệt là khả năng ứng dụng trong giám sát nội bộ và vũ khí tự chủ.
Đây không chỉ là một trường hợp chảy máu nhân tài thông thường. Đây là một người từng trực tiếp tham gia xây dựng “thân xác” của trí tuệ nhân tạo, dùng việc từ chức để nói với thế giới rằng: bà từ chối chịu trách nhiệm về những điều mà sản phẩm do chính mình tạo ra có thể làm ra.
Để hiểu được lý do Kalinowski rời đi, ta cần quay lại sự kiện xảy ra khoảng một tuần trước đó.
Ngày 28 tháng 2, Sam Altman tuyên bố OpenAI đạt được thỏa thuận với Bộ Quốc phòng Hoa Kỳ, cho phép Lầu Năm Góc sử dụng các mô hình AI của OpenAI trên mạng phân loại của mình. Thông tin vừa đăng tải đã khiến dư luận dậy sóng.
Điều thú vị là hợp đồng này lấy công ty đối thủ Anthropic làm “điểm tham chiếu”.
Chỉ mới đây thôi, Anthropic đã từ chối đề nghị hợp tác tương tự từ Lầu Năm Góc, kiên quyết yêu cầu đưa vào hợp đồng các rào cản đạo đức nghiêm ngặt hơn. Kết quả, Bộ trưởng Quốc phòng Pete Hegseth đã đăng bài trên X (trước đây là Twitter) gọi hành động của Anthropic là “một bài học kinh điển về sự kiêu ngạo và phản bội”, đồng thời ủng hộ lệnh của chính quyền Trump đình chỉ mọi hợp tác với Anthropic.
OpenAI sau đó đã nhận lấy thương vụ này.
Phản ứng từ người dùng rất mạnh mẽ. Ngay ngày 28 tháng 2, lượng gỡ cài đặt ChatGPT tăng vọt 295% so với ngày hôm trước; phong trào #QuitGPT nhanh chóng lan rộng trên mạng xã hội, và chỉ trong ba ngày, số người ủng hộ cuộc tẩy chay kỹ thuật số đã vượt quá 2,5 triệu người. Claude tận dụng cơ hội này để vượt mặt ChatGPT, trở thành ứng dụng miễn phí có lượt tải xuống trung bình hàng ngày cao nhất tại Mỹ và đứng đầu bảng xếp hạng App Store miễn phí của Apple.
Dưới áp lực dư luận, Altman công khai thừa nhận vào ngày 3 tháng 3 rằng “ông không nên vội vàng triển khai hợp đồng này”, gọi đây là một hành động “chỉ trông có vẻ cơ hội chủ nghĩa và thiếu suy xét”, đồng thời tuyên bố sẽ sửa đổi văn bản hợp đồng nhằm làm rõ ràng rằng “các hệ thống AI không được cố ý sử dụng vào mục đích giám sát trong nước đối với nhân viên và công dân Hoa Kỳ”.
Tuy nhiên, hai chữ “cố ý” này bản thân nó đã là một kẽ hở. Luật sư của Tổ chức Biên giới Điện tử (Electronic Frontier Foundation) đã chỉ ra thẳng thắn rằng các cơ quan tình báo và thực thi pháp luật thường dựa vào dữ liệu thu thập “vô tình” hoặc mua qua kênh thương mại để né tránh các quy định bảo vệ quyền riêng tư nghiêm ngặt hơn — việc thêm cụm “cố ý” không đồng nghĩa với một giới hạn thực sự.
Việc Kalinowski từ chức diễn ra đúng trong bối cảnh như vậy.
01 Điều bà ấy nhìn thấy cụ thể hơn những gì chúng ta tưởng tượng
Trong khi đa số người vẫn đang tranh luận “Liệu OpenAI có đang nhượng bộ chính phủ hay không?”, thì Kalinowski thực tế đang đối mặt với một vấn đề cụ thể và tàn khốc hơn — đội ngũ của bà đang chế tạo robot.
Công việc liên quan đến phần cứng và kỹ thuật robot không đơn thuần là viết mã hay điều chỉnh tham số mang tính trừu tượng. Đây là việc trang bị cho AI đôi tay, đôi chân và đôi mắt. Khi sự hợp tác giữa OpenAI và Bộ Quốc phòng chuyển từ “sử dụng mô hình” sang khả năng “ứng dụng quân sự của AI hiện thân” trong tương lai, bản chất công việc của Kalinowski đã thay đổi.
Các nhà nghiên cứu trong lĩnh vực vũ khí tự chủ từ lâu đã cảnh báo về ngày này.
Hiện tại, chính sách của Bộ Quốc phòng Hoa Kỳ không yêu cầu vũ khí tự chủ phải được con người phê duyệt trước khi sử dụng vũ lực. Nói cách khác, hợp đồng mà OpenAI ký kết về mặt kỹ thuật hoàn toàn không ngăn cản mô hình của họ trở thành một phần của hệ thống “để GPT quyết định giết một người nào đó”.
Đây không phải là lời đe dọa khoa trương. Giáo sư Jessica Tillipman chuyên về luật mua sắm công tại Đại học Georgetown, khi phân tích bản hợp đồng đã được OpenAI sửa đổi, đã khẳng định rõ ràng rằng văn bản hợp đồng “không trao cho OpenAI quyền tự do tương tự như Anthropic để cấm các hoạt động sử dụng hợp pháp của chính phủ”. Nó chỉ nêu rõ rằng Lầu Năm Góc không được dùng công nghệ của OpenAI vi phạm “các luật lệ và chính sách hiện hành” — nhưng bản thân các luật hiện hành lại đang để trống lớn về quản lý vũ khí tự chủ.
Các chuyên gia về quản trị tại Đại học Oxford cũng đưa ra đánh giá tương tự, cho rằng thỏa thuận của OpenAI “khó có thể lấp đầy” những khoảng trống cấu trúc trong quản trị đối với các hệ thống giám sát trong nước và vũ khí tự chủ do AI điều khiển.
Việc Kalinowski rời đi là phản ứng cá nhân của bà đối với đánh giá này.
02 Điều gì đang diễn ra bên trong OpenAI?
Kalinowski không phải là người đầu tiên rời đi, và cũng rất có thể sẽ không phải là người cuối cùng.
Theo số liệu có được, tỷ lệ nghỉ việc trong đội ngũ Đạo đức và An toàn AI của OpenAI đã lên tới 37%, và phần lớn những người nghỉ đều nêu nguyên nhân là “không phù hợp với giá trị cốt lõi của công ty” hoặc “không thể chấp nhận việc AI được sử dụng cho mục đích quân sự”. Nhà khoa học nghiên cứu Aidan McLaughlin từng đăng bài nội bộ viết rằng: “Bản thân tôi cho rằng thương vụ này không xứng đáng”.
Đáng chú ý là thời điểm của làn sóng nghỉ việc này — đúng vào giai đoạn OpenAI đang mở rộng nhanh chóng phạm vi thương mại của mình. Ngay trước và sau sự việc hợp đồng với Bộ Quốc phòng, công ty tuyên bố mở rộng thỏa thuận hiện có trị giá 38 tỷ đô la với AWS thêm 100 tỷ đô la trong thời hạn tám năm; đồng thời điều chỉnh lại mục tiêu chi tiêu công khai, dự kiến tổng doanh thu đến năm 2030 sẽ vượt 280 tỷ đô la.
Thương mại tăng tốc, trong khi đội an toàn liên tục rời bỏ. Sự chênh lệch này chính là trục tọa độ quan trọng nhất để hiểu được hoàn cảnh hiện tại của OpenAI.
Giá trị cốt lõi của một công ty cuối cùng được thể hiện ở chỗ: công ty giữ lại được ai, và không giữ nổi ai. Khi những người quan tâm nhất đến câu hỏi “công nghệ này sẽ được sử dụng như thế nào” lần lượt rời đi, hướng trượt của cấu trúc tổ chức còn lại là điều không khó suy đoán.
Anthropic trong cuộc đấu này đã chọn một con đường khác — từ chối hợp đồng, chấp nhận cơn giận dữ từ Bộ Quốc phòng, nhưng đổi lại là giành được niềm tin sâu sắc từ đông đảo người dùng. Trong giai đoạn đó, lượt tải xuống Claude tăng ngược chiều, chứng minh ở một mức độ nào đó rằng “sự từ chối có nguyên tắc” trong kinh doanh không nhất thiết là một chiến lược thất bại.
Tuy nhiên, Anthropic cũng phải trả giá — bị chính phủ loại khỏi danh sách, ít nhất là tạm thời.
Đây mới chính là nghịch lý thực sự: không có lựa chọn nào là hoàn hảo cả.
Từ chối, đồng nghĩa với việc có thể mất đi ảnh hưởng, thậm chí bị loại khỏi quá trình hoạch định quy tắc. Chấp nhận, đồng nghĩa với việc dùng chính công nghệ của mình để bảo trợ cho những hành vi mà bạn không thể kiểm soát hoàn toàn.
Câu trả lời của Kalinowski là con đường thứ ba — rời đi.
Đây là điều trung thực nhất bà có thể làm.
03 Cuộc chiến linh hồn tại Thung lũng Silicon mới chỉ bắt đầu
Nếu ta lùi xa hơn một chút để nhìn toàn cảnh, ý nghĩa của sự việc này vượt xa hơn một cá nhân từ chức.
Sự kết hợp giữa AI và quân sự là một bài toán mà toàn ngành sớm muộn cũng phải đối mặt. Lầu Năm Góc có ngân sách, có nhu cầu và có năng lực tích hợp công nghệ — họ sẽ không ngừng gửi “cành ô liu” tới các công ty AI. Còn các công ty AI — dù là OpenAI theo đuổi AGI, Anthropic nhấn mạnh yếu tố an toàn, hay bất kỳ đối thủ nào khác — sớm muộn cũng phải đưa ra câu trả lời riêng trước bài toán này.
Chiến lược của Altman là cố gắng dung hòa hiện thực thương mại bằng cách xác lập giới hạn thông qua văn bản hợp đồng. Nhưng như nhiều chuyên gia pháp lý và quản trị đã chỉ ra, những văn bản này phần lớn chỉ mang tính bảo vệ trên phương diện truyền thông, chứ không phải là những ràng buộc cứng nhắc trên phương diện kỹ thuật.
Vấn đề căn bản hơn nằm ở chỗ: khi các mô hình AI được triển khai trên mạng phân loại, khi chúng bắt đầu tham gia vào các quyết định quân sự, thế giới bên ngoài hoàn toàn bất lực trong việc kiểm chứng liệu những “cam kết” kia có thực sự được thực thi hay không.
Sự thiếu vắng minh bạch chính là rủi ro lớn nhất.
Kalinowski làm việc tại OpenAI chưa đầy một năm rưỡi, nhưng lại chọn rời đi đúng vào thời điểm then chốt này. Bà không công bố tuyên bố dài dòng, cũng không chỉ đích danh phê bình bất kỳ cá nhân nào, mà chỉ dùng hành động để vạch rõ ranh giới của riêng mình.
Theo một nghĩa nào đó, điều này còn mạnh mẽ hơn bất kỳ bài luận chính sách nào.
Kỹ thuật phần cứng và robot AI vốn là một trong những lĩnh vực tiên phong hấp dẫn nhất tại Thung lũng Silicon. Khi Kalinowski rời đi, bà mang theo không chỉ một bản lý lịch, mà còn để lại một câu hỏi dành cho tất cả những người vẫn đang tiếp tục làm việc trong ngành này —
Bạn sẵn sàng chịu trách nhiệm đến đâu đối với những thứ do chính mình tạo ra?
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News














