
Phân tích bài điều tra chuyên sâu của tạp chí The New Yorker: Vì sao những người trong nội bộ OpenAI lại cho rằng Altman không đáng tin cậy?
Tuyển chọn TechFlowTuyển chọn TechFlow

Phân tích bài điều tra chuyên sâu của tạp chí The New Yorker: Vì sao những người trong nội bộ OpenAI lại cho rằng Altman không đáng tin cậy?
Trên xác một tổ chức phi lợi nhuận, mọc lên một cây tiền.
Tác giả: Tiểu Bính, TechFlow
Mùa thu năm 2023, Ilya Sutskever—Khoa trưởng Khoa học của OpenAI—ngồi trước máy tính và hoàn tất một bản tài liệu dài 70 trang.
Tài liệu này được tổng hợp từ các bản ghi tin nhắn Slack, hồ sơ trao đổi với bộ phận Nhân sự và biên bản họp nội bộ, nhằm trả lời duy nhất một câu hỏi: Sam Altman—người đang điều hành công nghệ có thể nguy hiểm nhất trong lịch sử nhân loại—có thực sự đáng tin cậy hay không?
Câu trả lời của Sutskever được viết ngay dòng đầu tiên trên trang đầu tiên của tài liệu, với tiêu đề danh sách là “Sam thể hiện một mô hình hành vi nhất quán…”
Dòng thứ nhất: Nói dối.
Hai năm rưỡi sau, nhà báo điều tra Ronan Farrow và Andrew Marantz đã đăng trên tạp chí The New Yorker một bài điều tra dài ngoằng. Bài viết dựa trên hơn 100 cuộc phỏng vấn với các nhân chứng trực tiếp, thu thập được những bản ghi nhớ nội bộ chưa từng được công khai trước đây, cũng như hơn 200 trang ghi chép cá nhân do Dario Amodei—người đồng sáng lập Anthropic—để lại trong thời gian ông làm việc tại OpenAI. Những tài liệu này khi ghép lại kể một câu chuyện còn tồi tệ hơn nhiều so với cuộc “đấu đá cung đình” năm 2023: OpenAI đã từng bước biến mình từ một tổ chức phi lợi nhuận ra đời vì an toàn cho nhân loại thành một cỗ máy thương mại, và gần như mọi hàng rào an toàn đều bị chính một người duy nhất tự tay gỡ bỏ.
Kết luận trong ghi chép của Amodei thậm chí còn thẳng thừng hơn: “Vấn đề của OpenAI chính là bản thân Sam.”
“Tội nguyên thủy” của OpenAI
Để hiểu được trọng lượng của bài điều tra này, trước hết cần làm rõ OpenAI là một công ty đặc biệt đến mức nào.
Năm 2015, Altman cùng một nhóm tinh hoa Thung lũng Silicon đã thực hiện một việc gần như chưa từng có trong lịch sử kinh doanh: dùng một tổ chức phi lợi nhuận để phát triển công nghệ có thể mạnh nhất trong lịch sử nhân loại. Nhiệm vụ của Hội đồng quản trị được nêu rõ ràng: an toàn ưu tiên hơn cả thành công của công ty, thậm chí còn ưu tiên hơn cả sự tồn tại của công ty. Nói trắng ra, nếu một ngày nào đó AI của OpenAI trở nên nguy hiểm, Hội đồng quản trị có nghĩa vụ đóng cửa công ty này ngay lập tức.
Toàn bộ cấu trúc này đặt cược vào một giả định: Người nắm giữ AGI phải là một con người cực kỳ trung thực.
Nếu đặt cược sai thì sao?
Quả bom then chốt trong bài báo chính là bản tài liệu 70 trang nói trên. Sutskever không tham gia tranh đấu chính trị nội bộ; ông là một trong những nhà khoa học AI hàng đầu thế giới. Nhưng đến năm 2023, ông ngày càng chắc chắn một điều: Altman liên tục nói dối ban lãnh đạo và Hội đồng quản trị.
Một ví dụ cụ thể: Tháng 12 năm 2022, Altman cam kết trước Hội đồng quản trị rằng nhiều tính năng của GPT-4 sắp ra mắt đã vượt qua kiểm tra an toàn. Thành viên Hội đồng Toner yêu cầu xem hồ sơ phê duyệt, nhưng phát hiện hai tính năng gây tranh cãi nhất (tinh chỉnh theo người dùng và triển khai trợ lý cá nhân) hoàn toàn chưa được Hội đồng An toàn phê chuẩn.
Một việc còn kỳ quặc hơn xảy ra tại Ấn Độ. Một nhân viên đã tố cáo “sự vi phạm lần đó” với một thành viên khác của Hội đồng quản trị: Microsoft chưa hoàn tất đánh giá an toàn bắt buộc, nhưng đã tung ra phiên bản thử nghiệm sớm của ChatGPT tại Ấn Độ.
Sutskever còn ghi lại trong bản ghi nhớ một sự việc khác: Altman từng nói với cựu Giám đốc Công nghệ Mira Murati rằng quy trình phê duyệt an toàn “không quan trọng lắm”, vì Tổng cố vấn pháp lý của công ty đã chấp thuận. Murati liền tìm gặp vị Tổng cố vấn pháp lý để xác minh, và nhận được câu trả lời: “Tôi không biết Sam lấy ấn tượng này từ đâu.”
200 trang ghi chép cá nhân của Amodei
Bản tài liệu của Sutskever giống một bản cáo trạng do công tố viên soạn. Còn hơn 200 trang ghi chép cá nhân do Amodei để lại lại giống như nhật ký của một nhân chứng tại hiện trường vụ án.
Những năm làm Trưởng bộ phận An toàn tại OpenAI, Amodei đã chứng kiến công ty từng bước lùi bước dưới áp lực thương mại. Trong ghi chép, ông nhắc đến một chi tiết then chốt trong thương vụ đầu tư của Microsoft năm 2019: Ông từng đưa vào điều lệ OpenAI một điều khoản “sáp nhập và hỗ trợ”, ý nghĩa đại khái là nếu một công ty khác tìm ra lộ trình phát triển AGI an toàn hơn, OpenAI sẽ ngừng cạnh tranh và chuyển sang hỗ trợ công ty đó. Đây là bảo đảm an toàn quan trọng nhất đối với ông trong toàn bộ thương vụ.
Ngay trước khi ký hợp đồng, Amodei phát hiện một sự việc: Microsoft đã giành quyền phủ quyết điều khoản này. Điều đó nghĩa là gì? Ngay cả khi một ngày nào đó đối thủ thực sự tìm ra lộ trình tốt hơn, chỉ một câu nói của Microsoft cũng đủ chặn đứng nghĩa vụ hỗ trợ của OpenAI. Điều khoản vẫn còn trên giấy, nhưng kể từ ngày ký, nó đã trở thành tờ giấy vô giá trị.
Về sau, Amodei rời OpenAI để sáng lập Anthropic. Cuộc cạnh tranh giữa hai công ty phản ánh một bất đồng căn bản về “AI nên được phát triển như thế nào”.
Lời hứa về 20% công suất tính toán đã biến mất
Có một chi tiết trong bài báo khiến người đọc sởn gai ốc—về “Đội siêu căn chỉnh” (Superalignment Team) của OpenAI.
Vào giữa năm 2023, Altman gửi email liên hệ một nghiên cứu sinh tiến sĩ tại Đại học California, Berkeley, người chuyên nghiên cứu hiện tượng “căn chỉnh gian lận” (AI tỏ ra ngoan ngoãn trong kiểm tra, nhưng khi triển khai thực tế lại hành động theo ý riêng), bày tỏ lo ngại sâu sắc về vấn đề này và cân nhắc thiết lập một giải thưởng nghiên cứu toàn cầu trị giá 1 tỷ đô la Mỹ. Người nghiên cứu sinh này rất phấn khích, tạm dừng chương trình tiến sĩ và gia nhập OpenAI.
Sau đó Altman thay đổi chủ trương: Không tổ chức giải thưởng bên ngoài nữa, mà thành lập “Đội siêu căn chỉnh” nội bộ. Công ty tuyên bố rầm rộ rằng sẽ dành “20% công suất tính toán hiện có” cho đội này—giá trị tiềm năng vượt quá 1 tỷ đô la Mỹ. Thông cáo được soạn với giọng điệu nghiêm trọng đến mức cảnh báo rằng nếu vấn đề căn chỉnh không được giải quyết, AGI có thể dẫn tới “việc con người bị tước đoạt quyền lực, thậm chí tuyệt chủng”.
Jan Leike—người được bổ nhiệm làm người đứng đầu đội này—về sau tiết lộ với phóng viên rằng chính lời hứa này đã trở thành một “công cụ giữ chân nhân tài” hiệu quả.
Còn thực tế thì sao? Bốn người từng làm việc trong đội hoặc có tiếp xúc mật thiết với đội này khẳng định: Công suất tính toán thực tế cấp cho đội chỉ chiếm từ 1% đến 2% tổng công suất của công ty, và là phần phần cứng cũ kỹ nhất. Đội sau đó bị giải tán, sứ mệnh chưa hoàn thành.
Khi phóng viên yêu cầu phỏng vấn các nhân sự phụ trách nghiên cứu “an toàn tồn tại” tại OpenAI, bộ phận quan hệ công chúng của công ty phản ứng một cách khiến người ta vừa buồn cười vừa buồn bã: “Đó không phải là… một thực thể thực sự tồn tại.”
Chính Altman lại khá thoải mái. Ông nói với phóng viên rằng “trực giác của mình khá khác biệt so với nhiều khái niệm an toàn AI truyền thống”, và OpenAI vẫn sẽ thực hiện “các dự án an toàn, hoặc ít nhất là các dự án có liên quan đến an toàn”.
Giám đốc Tài chính bị gạt sang một bên và đợt IPO sắp tới
Bài báo của The New Yorker mới chỉ là một nửa số tin xấu trong ngày hôm ấy. Cùng ngày, tờ The Information tiết lộ một tin giật gân khác: Giám đốc Tài chính (CFO) của OpenAI, Sarah Friar, đã nảy sinh bất đồng nghiêm trọng với Altman.
Friar bí mật nói với đồng nghiệp rằng bà cho rằng OpenAI chưa sẵn sàng niêm yết cổ phiếu trong năm nay. Hai lý do: Khối lượng công việc mang tính quy trình và tổ chức cần hoàn tất quá lớn, và rủi ro tài chính từ cam kết của Altman về chi tiêu 600 tỷ đô la Mỹ cho công suất tính toán trong vòng 5 năm là quá cao. Bà thậm chí còn không chắc liệu tốc độ tăng doanh thu của OpenAI có đủ sức gánh vác những cam kết này hay không.
Nhưng Altman muốn tiến hành IPO ngay trong quý IV năm nay.
Còn kỳ quặc hơn nữa là Friar giờ đây đã không còn báo cáo trực tiếp cho Altman. Từ tháng 8 năm 2025, bà chuyển sang báo cáo cho Fidji Simo—Giám đốc Điều hành mảng ứng dụng của OpenAI. Mà tuần trước, Simo vừa xin nghỉ phép vì lý do sức khỏe. Hãy tự cảm nhận tình thế này: Một công ty đang chạy nước rút để IPO, CEO và CFO có bất đồng căn bản, CFO không báo cáo trực tiếp cho CEO, còn cấp trên trực tiếp của CFO thì đang nghỉ phép.
Ngay cả các giám đốc điều hành cấp cao bên trong Microsoft cũng không thể chịu nổi nữa, gọi Altman là người “bóp méo sự thật, nuốt lời và liên tục bác bỏ các thỏa thuận đã đạt được”. Một giám đốc điều hành Microsoft thậm chí còn tuyên bố: “Tôi nghĩ khả năng ông ta cuối cùng sẽ được lịch sử ghi nhớ như một kẻ lừa đảo ở cấp độ Bernie Madoff hoặc SBF là hoàn toàn có thể xảy ra.”
Hình ảnh “con người hai mặt” của Altman
Một cựu thành viên Hội đồng quản trị OpenAI đã mô tả hai đặc điểm nổi bật nơi Altman. Đoạn văn này có lẽ là bức chân dung nhân vật sắc bén nhất trong toàn bộ bài báo.
Vị hội đồng này nói rằng Altman sở hữu một tổ hợp đặc điểm cực kỳ hiếm gặp: Trong mọi cuộc trò chuyện trực tiếp, ông luôn khao khát mãnh liệt được làm hài lòng đối phương và được đối phương yêu thích. Đồng thời, ông lại gần như vô cảm—một thái độ gần như bệnh lý xã hội—đối với hậu quả có thể xảy ra do việc lừa dối người khác.
Hai đặc điểm này cùng tồn tại trong một con người là điều vô cùng hiếm. Nhưng đối với một người bán hàng, đây lại là thiên phú hoàn hảo nhất.
Bài báo có một so sánh rất hay: Steve Jobs nổi tiếng với “trường lực bóp méo hiện thực”, khiến cả thế giới tin vào tầm nhìn của ông. Nhưng ngay cả Jobs cũng chưa từng nói với khách hàng: “Nếu anh không mua máy nghe nhạc MP3 của tôi, những người anh yêu thương sẽ chết.”
Altman đã từng nói những câu tương tự—nhưng về AI.
Tại sao phẩm chất đạo đức của một CEO lại là rủi ro đối với tất cả mọi người
Nếu Altman chỉ là CEO của một công ty công nghệ thông thường, những cáo buộc này tối đa chỉ là một câu chuyện thị trường hấp dẫn. Nhưng OpenAI không bình thường.
Theo chính tuyên bố của mình, công ty này đang phát triển công nghệ mạnh nhất trong lịch sử nhân loại—có thể tái định hình toàn bộ nền kinh tế và thị trường lao động toàn cầu (chính OpenAI vừa xuất bản một bản “sách trắng chính sách” về vấn đề thất nghiệp do AI gây ra), cũng như có thể bị sử dụng để sản xuất vũ khí sinh-hóa quy mô lớn hoặc phát động các cuộc tấn công mạng.
Tất cả các hàng rào an toàn giờ đây đều chỉ còn trên danh nghĩa. Sứ mệnh phi lợi nhuận của người sáng lập đã nhường chỗ cho cuộc chạy đua IPO. Cựu Khoa trưởng Khoa học và cựu Trưởng bộ phận An toàn đều kết luận rằng CEO “không đáng tin cậy”. Đối tác chiến lược so sánh CEO với SBF. Trong hoàn cảnh như vậy, tại sao một người như thế lại có thể đơn phương quyết định thời điểm phát hành một mô hình AI có khả năng thay đổi vận mệnh nhân loại?
Gary Marcus—giáo sư AI tại Đại học New York, đồng thời là nhà vận động an toàn AI lâu năm—sau khi đọc xong bài báo đã viết một câu: Nếu một mô hình OpenAI trong tương lai có thể tạo ra vũ khí sinh-hóa quy mô lớn hoặc phát động các cuộc tấn công mạng thảm khốc, bạn thực sự yên tâm để Altman một mình quyết định việc phát hành hay không?
Phản hồi của OpenAI gửi tới The New Yorker khá ngắn gọn: “Phần lớn nội dung bài viết chỉ là tái chế các sự kiện đã từng được đưa tin, thông qua những lời kể ẩn danh và các câu chuyện chọn lọc, rõ ràng nguồn tin mang động cơ cá nhân.”
Đây đúng là phong cách phản hồi điển hình của Altman: Không trả lời các cáo buộc cụ thể, không phủ nhận tính xác thực của các bản ghi nhớ, mà chỉ nghi ngờ động cơ của nguồn tin.
Trên xác chết của tổ chức phi lợi nhuận, mọc lên một cây hái ra tiền
Mười năm hoạt động của OpenAI, nếu viết thành một đề cương truyện, sẽ như sau:
Một nhóm lý tưởng chủ nghĩa lo ngại về rủi ro của AI thành lập một tổ chức phi lợi nhuận lấy sứ mệnh làm trung tâm. Tổ chức đạt được những đột phá công nghệ phi thường. Đột phá thu hút lượng vốn khổng lồ. Vốn đòi hỏi lợi nhuận. Sứ mệnh bắt đầu nhường đường. Đội an toàn bị giải tán. Những người đặt câu hỏi bị thanh trừng. Cơ cấu phi lợi nhuận chuyển thành thực thể vì lợi nhuận. Hội đồng quản trị từng có quyền đóng cửa công ty nay đầy ắp những đồng minh của CEO. Công ty từng cam kết dành 20% công suất tính toán để bảo vệ an toàn nhân loại, giờ đây bộ phận quan hệ công chúng lại tuyên bố: “Đó không phải là một thực thể thực sự tồn tại.”
Nhân vật chính của câu chuyện này—hơn một trăm người từng trực tiếp chứng kiến—đều gán cho ông cùng một nhãn: “Không bị ràng buộc bởi sự thật.”
Ông đang chuẩn bị đưa công ty này lên sàn, với định giá vượt quá 850 tỷ đô la Mỹ.
Thông tin trong bài được tổng hợp từ các báo cáo công khai của The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information và một số phương tiện truyền thông khác.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News














