
OpenAI tiết lộ dự án “Polaris”, “Đại thất nghiệp năm 2028” có thể thực sự sắp xảy ra
Tuyển chọn TechFlowTuyển chọn TechFlow

OpenAI tiết lộ dự án “Polaris”, “Đại thất nghiệp năm 2028” có thể thực sự sắp xảy ra
Tháng 9 sẽ tạo ra thực tập sinh AI có khả năng tự chủ tiến hành nghiên cứu khoa học — lần này có thể không phải là “vẽ bánh” nữa.
Gần đây, một bài viết mang tiêu đề “Dự báo năm 2028” lan truyền mạnh mẽ trên mạng. Bài viết này cho rằng do sự tiến bộ của trí tuệ nhân tạo (AI), đến năm 2028 sẽ xuất hiện làn sóng thất nghiệp quy mô lớn, khi nhiều công việc hiện tại sẽ bị AI thay thế.
Ngay sau khi bài viết xuất hiện, cộng thêm căng thẳng leo thang tại Trung Đông, thị trường chứng khoán Mỹ đã sụt giảm nghiêm trọng trong ngày hôm đó. Sự việc này nghe có vẻ kỳ lạ, bởi rõ ràng bài viết được tạo ra bởi AI, nhưng lại trùng khớp một cách đáng sợ với nỗi lo sâu sắc của công chúng về nguy cơ “AI gây ra đại thất nghiệp”, nên mới tạo ra ảnh hưởng lớn như vậy.
Gần đây, một thông tin rò rỉ từ OpenAI khiến nhiều người nhận ra rằng kịch bản “đại thất nghiệp năm 2028” có thể không phải chuyện viển vông.
Trong cuộc phỏng vấn độc quyền với tạp chí MIT Technology Review, nhà khoa học trưởng của OpenAI – ông Jakub Pachocki – vừa đưa ra một tuyên bố khiến người nghe sởn gai ốc: “Mục tiêu dẫn đường” (North Star) của họ là xây dựng thành công một hệ thống nghiên cứu đa tác tử (multi-agent) hoàn toàn tự động trước năm 2028.
Đến tháng 9 năm nay, giai đoạn đầu tiên của mục tiêu này sẽ được triển khai:
Một “thực tập sinh nghiên cứu AI tự chủ” có khả năng xử lý độc lập các vấn đề nghiên cứu cụ thể.
Đây không phải là một chỗ trống trên lộ trình sản phẩm, cũng chẳng phải lời tuyên bố bốc đồng trên X (trước đây là Twitter) của Sam Altman. Đây là cam kết toàn lực của OpenAI, khi dồn mọi nguồn lực của cả công ty vào một hướng đi duy nhất.
Ý nghĩa của “Mục tiêu dẫn đường”
Khi các công ty công nghệ nói tới “Mục tiêu dẫn đường”, điều đó thường hàm ý hai điều: thứ nhất, mọi hoạt động khác đều phải nhường đường cho mục tiêu này; thứ hai, nội bộ công ty đã đạt được sự thống nhất cao độ.
Nhìn vào những hành động của OpenAI trong hai tuần qua, đánh giá trên là hoàn toàn hợp lý.
Ngày 19 tháng 3, OpenAI tuyên bố mua lại công ty công cụ dành cho nhà phát triển Astral, và đội ngũ này sẽ được sáp nhập vào bộ phận Codex; cùng lúc đó, công ty cũng thông báo tích hợp ChatGPT, Codex và trình duyệt thành một “ứng dụng siêu cấp” (super app) duy nhất trên nền tảng máy tính để bàn, do bà Fidji Simo – người đứng đầu mảng ứng dụng – chủ trì, và ông Greg Brockman hỗ trợ thúc đẩy cải tổ tổ chức.
Kỷ nguyên các sản phẩm rời rạc đã chính thức khép lại; OpenAI đang dồn mọi quân bài vào một hướng duy nhất.
Và hướng đi ấy chính là “để AI tự thực hiện nghiên cứu”.
Lập luận của ông Pachocki rất rõ ràng: mô hình suy luận, tác tử thông minh (intelligent agent) và khả năng giải thích (interpretability) – ba hướng công nghệ vốn hoạt động riêng lẻ trong nội bộ OpenAI – giờ đây sẽ được thống nhất dưới một mục tiêu chung: xây dựng một nhà nghiên cứu AI có thể vận hành độc lập trong trung tâm dữ liệu trong thời gian dài. Ông khẳng định: “Một khi điều này thành hiện thực, đây sẽ là thứ chúng ta thực sự phụ thuộc vào.”
Quan điểm của cựu nhà nghiên cứu OpenAI – ông Andrej Karpathy – còn trực diện hơn: “Tất cả các phòng thí nghiệm hàng đầu về mô hình ngôn ngữ lớn (LLM) đều sẽ làm như vậy — đây chính là trận chiến BOSS cuối cùng.” Ông bổ sung một câu đáng để suy ngẫm: “Tất nhiên, việc mở rộng quy mô sẽ phức tạp hơn, nhưng đây chỉ là một bài toán kỹ thuật – và nó chắc chắn sẽ thành công.”
Xin lưu ý cách dùng từ của ông ấy: Không phải “liệu có thể hay không”, mà là “khi nào sẽ xảy ra”.
Anthropic cũng đang hành động
Cùng ngày OpenAI công bố “Mục tiêu dẫn đường”, Anthropic âm thầm ra mắt tính năng Claude Code Channels — cho phép các nhà phát triển tương tác trực tiếp với Claude Code đang chạy thông qua Telegram và Discord.
Nếu xét riêng lẻ, sự kiện này trông khá nhỏ bé; nhưng đặt trong bối cảnh xu hướng tổng thể, nó lại mang ý nghĩa đặc biệt quan trọng.
Lập luận của Anthropic là: Thay vì chỉ nói với các nhà phát triển về những điều AI có thể làm trong tương lai, hãy để nó ngay lập tức hòa nhập vào quy trình làm việc thực tế của họ ngay hôm nay. Telegram và Discord không phải là các bài báo khoa học hàn lâm, mà là nơi lập trình viên làm việc mỗi ngày. Khi Claude Code “sống” ở đây, nó đã chuyển mình từ một “công cụ” thành một “đồng nghiệp”.
Phản ứng từ cộng đồng xác nhận đúng nhận định này.
Một người dùng thậm chí bình luận thẳng thắn: “Chỉ với lần cập nhật này, Claude đã ‘giết chết’ OpenClaw — bạn không còn cần mua một chiếc Mac Mini nữa.” Ẩn ý đằng sau câu nói này là các cải tiến cơ sở hạ tầng của Anthropic đã khiến các giải pháp mã nguồn mở mất đi lợi thế chi phí.
Và xét trên dòng thời gian vĩ mô hơn, tốc độ đổi mới của Anthropic trên nền tảng Claude Code quả thật đáng kinh ngạc. Chỉ trong vài tuần ngắn ngủi, Claude Code đã tích hợp thành công khả năng xử lý văn bản, tích hợp hàng nghìn kỹ năng MCP (Model Context Protocol), và khả năng tự sửa lỗi (autonomous bug fixing). Trong khi OpenAI đang tăng cường bộ phận Codex bằng việc mua lại Astral, thì Anthropic đã đưa Claude Code thẳng vào cửa sổ trò chuyện của các nhà phát triển.
Cả hai công ty đều đang hướng tới cùng một đích đến, nhưng con đường họ chọn lại hoàn toàn khác biệt: OpenAI đang xây dựng “nhà nghiên cứu AI tự động hoàn toàn vào năm 2028”, còn Anthropic lại tập trung vào “công cụ tác tử thông minh có thể sử dụng ngay hôm nay”.
Vấn đề thực sự
Tuy nhiên, có một chi tiết quan trọng không thể bỏ qua.
Trong cuộc phỏng vấn độc quyền, ông Pachocki đã làm một việc rất hiếm hoi — ông chủ động đề cập đến những thách thức về an toàn và khả năng kiểm soát, và nói một cách vô cùng thẳng thắn.
Ông chia sẻ rằng ý tưởng của họ là sử dụng các mô hình ngôn ngữ lớn khác để “giám sát ghi chú của nhà nghiên cứu AI”, nhằm phát hiện sớm những hành vi bất thường trước khi chúng gây hậu quả. Nhưng ngay sau đó, ông thừa nhận: “Mức độ hiểu biết hiện tại về các mô hình ngôn ngữ lớn vẫn chưa đủ để chúng ta kiểm soát chúng một cách tuyệt đối. Muốn thực sự khẳng định ‘vấn đề này đã được giải quyết’, chúng ta còn cần rất nhiều thời gian nữa.”
Việc một nhà khoa học trưởng của công ty tuyên bố “chúng tôi chưa kiểm soát được hoàn toàn”, trong khi đồng thời lại công bố kế hoạch ra mắt một hệ thống nhà nghiên cứu AI tự động hoàn toàn vào năm 2028 — hai sự kiện này đặt cạnh nhau, xứng đáng khiến tất cả chúng ta phải suy ngẫm nghiêm túc.
Đây không phải là sự hoài nghi, mà là cách để hiểu đúng mức độ khó khăn thực sự của vấn đề. Chính việc ông Pachocki dám nói ra điều này đã cho thấy OpenAI có cái nhìn tỉnh táo và rõ ràng về những chặng đường gian nan phía trước.
Ở góc độ kỹ thuật, một vòng lặp mang tên “vòng lặp Karpathy” do các nhà nghiên cứu tổng kết rất đáng để tham khảo — một khung nghiên cứu AI tự động thành công đòi hỏi ba yếu tố then chốt: một tác tử có quyền chỉnh sửa từng tệp tin riêng lẻ, một chỉ số đo lường khách quan duy nhất để kiểm tra, và giới hạn thời gian cố định cho mỗi thí nghiệm.
Khung làm việc này đã bắt đầu cho ra kết quả trong môi trường thực tế. Ông Tobias Lütke – CEO của Shopify – từng công khai chia sẻ một ví dụ: ông giao cho tác tử autoresearch chạy thử nghiệm vào ban đêm, và sáng hôm sau, tác tử đã thực hiện 37 lần thí nghiệm, giúp nâng cao hiệu năng mô hình lên 19%.
Từ khái niệm đến hiện thực hóa, con đường này ngắn hơn nhiều so với tưởng tượng.
Tương lai của gói đăng ký 20.000 USD
Dự án “Mục tiêu dẫn đường” không chỉ là lợi thế về mặt công nghệ, mà còn là yếu tố quyết định thắng bại trên phương diện thương mại.
Một loạt con số do ông Paul Roetzer đưa ra khiến người đọc muốn đọc đi đọc lại nhiều lần: ông viện dẫn dự báo nội bộ của OpenAI cho rằng đến năm 2029, riêng mảng tác tử thông minh sẽ mang về doanh thu hàng năm lên tới 29 tỷ USD, bao gồm gói “đại lý tri thức” (knowledge agent) giá 2.000 USD/tháng và gói “đại lý nghiên cứu” (research agent) giá 20.000 USD/tháng.
Con số này cho thấy rõ ràng rằng “nhà nghiên cứu AI” từ đầu đã không chỉ là một mục tiêu kỹ thuật, mà còn là một lộ trình doanh thu cụ thể.
Gói “đại lý nghiên cứu” giá 20.000 USD/tháng, nếu quy đổi ra, chỉ bằng một phần nhỏ lương năm của một nhà nghiên cứu giàu kinh nghiệm, nhưng nó có thể làm việc liên tục 24/7 và đồng thời chạy 37 thí nghiệm. Đây không phải là việc thay thế một cá nhân cụ thể, mà là việc tái định nghĩa bản thân khái niệm “năng suất nghiên cứu”.
Điều này khiến tôi nhớ lại câu nói của Karpathy — “đây là trận chiến BOSS cuối cùng”. BOSS mà ông ấy nhắc tới không phải là đối thủ cạnh tranh, mà chính là trần giới hạn (ceiling) về năng lực của AI.
Một khi AI có thể tự chủ thúc đẩy nghiên cứu khoa học, tốc độ tiến bộ của AI sẽ không còn bị giới hạn bởi số lượng và thời gian làm việc của các nhà nghiên cứu con người.
Ông Pachocki cũng bày tỏ cùng một ý tưởng, chỉ khác ở cách diễn đạt khiêm tốn hơn: “Một khi hệ thống có thể vận hành độc lập trong trung tâm dữ liệu trong thời gian dài, đây sẽ là thứ chúng ta thực sự phụ thuộc vào.”
“Thực tập sinh nghiên cứu AI” dự kiến ra mắt vào tháng 9 năm 2026 không phải là đích đến, mà chỉ là một bước khởi đầu quan trọng.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News












