
Tập đầu tiên của podcast chính thức từ OpenAI: Sam Altman tiết lộ chi tiết về GPT-5, Stargate và phần cứng AI thế hệ tiếp theo
Tuyển chọn TechFlowTuyển chọn TechFlow

Tập đầu tiên của podcast chính thức từ OpenAI: Sam Altman tiết lộ chi tiết về GPT-5, Stargate và phần cứng AI thế hệ tiếp theo
"Quyền riêng tư phải trở thành nguyên tắc cốt lõi trong việc sử dụng AI."
Biên tập: Youxin
Ngày 19 tháng 6, OpenAI đã chính thức phát hành chương trình podcast đầu tiên của mình, trong đó CEO Sam Altman lần đầu tiên trả lời hệ thống các câu hỏi về tiến độ phát triển GPT-5, dự án Stargate, việc phát triển thiết bị AI thế hệ tiếp theo, tranh luận về khả năng ghi nhớ của mô hình, cũng như sự thay đổi cấu trúc xã hội sau khi AGI xuất hiện.
Altman chia sẻ trải nghiệm thực tế của trí tuệ nhân tạo (AI) trong nuôi dạy con cái và giáo dục dưới tư cách "một người cha mới", đồng thời từ góc nhìn nhà lãnh đạo doanh nghiệp, tiết lộ những lựa chọn cốt lõi mà OpenAI đang đối mặt: làm sao cân bằng giữa bước nhảy công nghệ, ranh giới riêng tư và cấu trúc niềm tin.
"Con cái tôi sẽ không bao giờ thông minh hơn AI, nhưng chúng sẽ trưởng thành mạnh mẽ hơn thế hệ chúng ta rất nhiều," Altman thừa nhận trong chương trình. Thế hệ trẻ này sẽ lớn lên trong một thế giới mà AI thấm sâu vào mọi khía cạnh, khả năng phụ thuộc vào, hiểu biết và tương tác với các hệ thống thông minh của chúng sẽ tự nhiên như thế hệ trước đã quen thuộc với điện thoại thông minh. Vai trò mới của các mô hình như ChatGPT trong việc đồng hành nuôi dạy và khởi phát tri thức đang mở ra một khuôn mẫu mới cho nuôi dạy con, giáo dục, công việc và phát triển sáng tạo.
AI đang trở thành môi trường trưởng thành của thế hệ kế tiếp
Altman nói rằng mặc dù xã hội vẫn chưa thống nhất định nghĩa, nhưng “ngày càng có nhiều người cho rằng chúng ta đã đạt đến các hệ thống AGI”. Theo ông, nhu cầu của công chúng đối với phần cứng và phần mềm thay đổi cực kỳ nhanh chóng, trong khi năng lực tính toán hiện tại còn xa mới đáp ứng được nhu cầu tiềm tàng.
Khi cuộc trò chuyện chuyển sang vai trò làm cha mới của Altman, ông thừa nhận ChatGPT đã hỗ trợ rất lớn trong giai đoạn đầu nuôi con. “Mặc dù nhiều người có thể nuôi con tốt ngay cả khi không có ChatGPT, nhưng tôi không chắc bản thân có thể làm được điều đó.” Sau vài tuần đầu tiên tràn ngập câu hỏi kiểu “việc gì cũng phải hỏi”, ông dần tập trung vào các chủ đề liên quan đến nhịp độ phát triển và thói quen hành vi của trẻ sơ sinh. Ông chỉ ra rằng các công cụ AI dạng này đã bắt đầu đóng vai trò là “trung gian thông tin” và “nguồn tăng cường sự tự tin” trong quá trình nuôi dạy con.
Không chỉ vậy, Altman cũng đang suy nghĩ về ảnh hưởng của AI đối với hành trình phát triển của thế hệ trẻ. Ông thẳng thắn nói: “Con cái tôi sẽ không bao giờ thông minh hơn AI, nhưng chúng sẽ phát triển vượt xa so với thế hệ chúng ta”, đồng thời nhấn mạnh rằng thế hệ trẻ này sẽ lớn lên một cách tự nhiên trong môi trường AI hiện diện khắp nơi, mức độ phụ thuộc và tương tác với AI sẽ tự nhiên như điện thoại thông minh từng là với mười năm trước.
Altman chia sẻ một câu chuyện lan truyền trên mạng xã hội: Một người cha để tránh việc phải kể đi kể lại nội dung phim “Thomas the Tank Engine” cho con, đã nhập các nhân vật vào chế độ giọng nói của ChatGPT, kết quả là đứa trẻ trò chuyện với nó hơn một tiếng đồng hồ. Hiện tượng này khiến Altman lo ngại sâu sắc: Việc AI đảm nhận vai trò đồng hành có thể dẫn đến sự dị hóa trong "các mối quan hệ xã hội giả", từ đó đặt ra những thách thức mới cho cấu trúc xã hội. Ông nhấn mạnh xã hội cần thiết lập lại các ranh giới, nhưng đồng thời cũng cho rằng lịch sử luôn tìm được cách thích nghi với cú sốc từ công nghệ mới.
Trong lĩnh vực giáo dục, Altman nhận thấy tiềm năng tích cực của ChatGPT trong lớp học. “Khi có giáo viên giỏi và chương trình học tốt hướng dẫn, ChatGPT hoạt động rất hiệu quả,” nhưng ông cũng thừa nhận rằng khi học sinh dùng nó để làm bài tập một mình, dễ rơi vào tình trạng sao chép kiểu “Google”. Ông lấy ví dụ từ trải nghiệm cá nhân, nói rằng trước đây người ta cũng lo lắng “nó chỉ biết Google”, nhưng cuối cùng nhận ra trẻ em và nhà trường đều nhanh chóng thích nghi với sự thay đổi do công cụ mới mang lại.
Khi được hỏi hình dạng của ChatGPT sau 5 năm nữa, Altman nói rằng “ChatGPT năm năm tới sẽ trở thành một thứ hoàn toàn khác biệt”, dù tên gọi có thể vẫn giữ nguyên, nhưng khả năng, phương thức tương tác và định vị sẽ thay đổi căn bản.
AGI là định nghĩa động, bước nhảy vọt về năng lực nghiên cứu sâu
Khi nói đến thuật ngữ nóng trong ngành “AGI”, Sam Altman đưa ra giải thích mang tính động hơn. Ông nói: “Nếu bạn yêu cầu tôi hoặc bất kỳ ai định nghĩa AGI năm năm trước dựa trên năng lực nhận thức của phần mềm lúc đó, thì định nghĩa đó hiện nay đã bị vượt xa rồi.” Khi trí tuệ mô hình liên tục tăng cường, tiêu chuẩn AGI cũng không ngừng được nâng cao, tạo nên trạng thái “dịch chuyển động”.
Ông nhấn mạnh rằng hiện nay đã có những hệ thống giúp nâng cao đáng kể hiệu suất làm việc của con người, thực hiện các nhiệm vụ có giá trị kinh tế, nhưng điều thực sự đáng để đặt câu hỏi là: Hệ thống nào mới xứng đáng được gọi là “siêu trí tuệ”? Theo ông, hệ thống có khả năng tự khám phá khoa học, hoặc nâng cao hiệu quả khám phá khoa học của con người một cách vượt bậc, mới gần đạt được tiêu chuẩn này. “Đây sẽ là điều tuyệt vời vô cùng đối với thế giới.”
Nhận định này cũng đã phản ánh bên trong OpenAI. Andrew Mane nhớ lại, khi họ thử nghiệm GPT-4, cảm giác như “không gian khám phá mười năm đột nhiên mở ra”. Đặc biệt là khoảnh khắc mô hình có thể tự gọi chính nó, thể hiện khả năng suy luận ban đầu, khiến người ta nhận ra khả năng của giai đoạn mới.
Altman đồng tình và bổ sung thêm: “Tôi luôn tin rằng động lực cốt lõi thúc đẩy chất lượng cuộc sống con người tiến bộ là tốc độ tiến bộ khoa học.” Việc khám phá khoa học chậm là yếu tố hạn chế cơ bản đối với sự phát triển của nhân loại, trong khi tiềm năng của AI ở điểm này vẫn chưa được khai thác hết. Dù thừa nhận chưa nắm rõ đường đi cho “nghiên cứu khoa học tự động bằng AI”, nhưng niềm tin của nhóm nghiên cứu về hướng đi ngày càng mạnh mẽ. Ông chia sẻ, từ GPT-4.0.1 đến GPT-4.0.3, cứ vài tuần lại xuất hiện một ý tưởng then chốt mới, và hầu như đều hiệu quả, nhịp độ này rất đáng phấn khích, cũng xác nhận niềm tin rằng “đột phá sẽ đến bất ngờ”.
Andrew Mane bổ sung, OpenAI gần đây đã chuyển mặc định sang mô hình GPT-4.0.3, trong đó cập nhật quan trọng nhất là giới thiệu chế độ Operator. Theo ông, nhiều hệ thống Agentic trước đây dù hứa hẹn cao nhưng “khả năng chống gián đoạn kém”, chỉ cần gặp ngoại lệ là sụp đổ. Trong khi đó, biểu hiện của GPT-4.0.3 hoàn toàn khác biệt. Altman phản hồi: “Nhiều người nói với tôi rằng họ cảm nhận được khoảnh khắc đột phá AGI chính là ở chế độ Operator của GPT-4.0.3.” Mặc dù bản thân ông không cảm nhận rõ rệt, nhưng phản hồi từ người dùng bên ngoài rất đáng chú ý.
Hai người tiếp tục thảo luận về khả năng mới do “nghiên cứu sâu (Deep Research)” mang lại. Andrew nói rằng khi dùng công cụ này để nghiên cứu Marshall McLuhan, AI có thể tìm kiếm, sàng lọc, sắp xếp tài liệu trên mạng và tạo thành gói tài liệu hoàn chỉnh, hiệu quả hơn nhiều so với tự nghiên cứu thủ công. Ông còn phát triển một ứng dụng, chuyển các câu hỏi thành tệp âm thanh để phục vụ nhu cầu “trí nhớ hạn chế nhưng tò mò mạnh”.
Altman ngay lập tức chia sẻ một kịch bản sử dụng cực đoan khác: Một “kẻ nghiện học tập” dùng Deep Research để tạo báo cáo đầy đủ về nhiều chủ đề sở thích, ngồi suốt ngày đọc, đặt câu hỏi, lặp lại, hoàn toàn đắm chìm trong vòng lặp học tập do AI điều khiển.
Mặc dù Altman tự nhận vì thời gian eo hẹp nên không thể tận dụng đầy đủ các công cụ này, nhưng ông vẫn sẵn sàng ưu tiên đọc nội dung do Deep Research tạo ra trong thời gian hạn chế.
Cùng với chức năng liên tục được cải thiện và các kịch bản người dùng ngày càng đa dạng, sự quan tâm của công chúng đối với mô hình thế hệ tiếp theo cũng tăng cao. Andrew trực tiếp đặt câu hỏi người dùng quan tâm nhất: GPT-5 sẽ ra mắt khi nào? Altman trả lời: “Có lẽ vào mùa hè năm nay, nhưng tôi cũng không chắc chắn về thời gian chính xác.” Ông tiết lộ rằng nội bộ đang đối mặt với vấn đề được thảo luận lặp đi lặp lại: Phiên bản mới có cần tiếp tục dùng hình thức ra mắt “hoành tráng” như trước hay không, hay giống GPT-4, liên tục cập nhật mà không đổi tên.
Ông giải thích thêm rằng cấu trúc hệ thống mô hình hiện nay phức tạp hơn xưa rất nhiều, không còn là quy trình tuyến tính “huấn luyện một lần, ra mắt một lần”, mà là hệ thống động hỗ trợ tối ưu hóa liên tục. “Hiện tại chúng tôi đang suy nghĩ vấn đề này: Nếu chúng tôi cập nhật liên tục sau khi ra mắt GPT-5, có nên đặt tên là GPT-5.1, 5.2, 5.3 hay giữ nguyên tên GPT-5?” Sở thích khác nhau của người dùng cũng làm tăng độ phức tạp trong quyết định: Có người thích phiên bản cố định, có người muốn cải thiện liên tục, nhưng ranh giới khó thống nhất.
Andrew chỉ ra rằng ngay cả những người có nền tảng kỹ thuật đôi khi cũng bối rối khi chọn mô hình. Ví dụ như việc chọn O3, O4 Mini, O4 Mini High... Tên gọi không nhất quán làm tăng độ khó lựa chọn.
Về vấn đề này, Altman giải thích rằng đây thực chất là “sản phẩm phụ của chuyển dịch mô hình”. Hệ thống hiện tại giống như đang chạy song song hai kiến trúc mô hình, tuy nhiên trạng thái lộn xộn này đã gần đến hồi kết. Ông bổ sung rằng dù không loại trừ khả năng xuất hiện mô hình mới trong tương lai, có thể gây “chia cắt” hệ thống một lần nữa, nhưng “tôi rất mong sớm tiến vào giai đoạn GPT-5, GPT-6”, khi đó người dùng sẽ không còn bị phiền hà bởi tên gọi phức tạp và việc chuyển đổi mô hình.
Ký ức AI, cá nhân hóa và tranh luận về quyền riêng tư
Khi nói đến thay đổi trải nghiệm lớn nhất gần đây của ChatGPT, Sam Altman thẳng thắn: “Tính năng ghi nhớ có lẽ là tính năng mới yêu thích nhất của tôi gần đây.” Ông nhớ lại, khi dùng GPT-3, cuộc trò chuyện với máy tính đã gây ấn tượng mạnh, nhưng bây giờ mô hình có thể đưa ra phản hồi chính xác dựa trên bối cảnh người dùng, cảm giác “biết bạn là ai” này là bước nhảy chưa từng có. Altman cho rằng AI đang mở ra một giai đoạn hoàn toàn mới, miễn là người dùng đồng ý, nó sẽ hiểu sâu sắc đời sống của họ và từ đó cung cấp “những câu trả lời hữu ích cực kỳ”.
Tuy nhiên, sự phát triển chức năng cũng gây ra những tranh luận phức tạp hơn ở cấp độ xã hội. Andrew Mane nhắc đến vụ kiện gần đây của New York Times đối với OpenAI, yêu cầu tòa án buộc OpenAI lưu giữ dữ liệu người dùng ChatGPT lâu hơn thời hạn tuân thủ, thu hút sự chú ý rộng rãi. Altman nói: “Chúng tôi dĩ nhiên sẽ phản đối yêu cầu này. Tôi hy vọng, và tin rằng chúng tôi sẽ thắng.” Ông chỉ trích đối phương vừa tuyên bố coi trọng quyền riêng tư, vừa đưa ra yêu cầu vượt giới hạn, đồng thời cho rằng điều này chính xác đã bộc lộ khoảng trống pháp lý hiện tại về AI và quyền riêng tư.
Theo Altman, dù vụ kiện này đáng tiếc, nhưng cũng có ý nghĩa tích cực là “thúc đẩy xã hội thảo luận nghiêm túc về AI và quyền riêng tư”. Ông nhấn mạnh ChatGPT đã trở thành “bạn đồng hành trò chuyện riêng tư” trong đời sống hàng ngày của nhiều người dùng, điều này có nghĩa nền tảng phải xây dựng chế độ bảo vệ nghiêm ngặt hơn để đảm bảo thông tin nhạy cảm không bị lạm dụng. Ông thẳng thắn: “Quyền riêng tư phải trở thành nguyên tắc cốt lõi trong việc sử dụng AI.”
Thảo luận mở rộng hơn sang việc sử dụng dữ liệu và khả năng quảng cáo. Andrew đặt câu hỏi: OpenAI có thể truy cập dữ liệu trò chuyện của người dùng không, dữ liệu này có được dùng để huấn luyện hoặc mục đích thương mại không? Altman trả lời rằng người dùng thực sự có thể chọn tắt việc dùng dữ liệu để huấn luyện, và OpenAI cũng chưa tung ra sản phẩm quảng cáo nào. Cá nhân ông không hoàn toàn phản đối quảng cáo, “một số quảng cáo là tốt, ví dụ tôi đã mua khá nhiều thứ qua quảng cáo trên Instagram.” Nhưng ông nhấn mạnh rằng trong các sản phẩm như ChatGPT, “niềm tin” là nền tảng cực kỳ then chốt.
Altman chỉ ra rằng mạng xã hội và nền tảng tìm kiếm thường khiến người dùng cảm giác mình bị “hóa thành hàng hóa”, nội dung dường như tồn tại chỉ để phục vụ lượt click quảng cáo — đây chính là gốc rễ của mối lo phổ biến. Nếu trong tương lai nội dung đầu ra của mô hình AI bị điều khiển bởi giá thầu quảng cáo, đó sẽ là sự sụp đổ niềm tin hoàn toàn. “Bản thân tôi cũng sẽ ghét điều đó.”
Ngược lại, ông thiên về xây dựng mô hình kinh doanh “rõ ràng, minh bạch và nhất quán mục tiêu”: người dùng trả tiền cho dịch vụ chất lượng cao, chứ không bị điều khiển ngầm bởi quảng cáo. Trong điều kiện kiểm soát được, ông không loại trừ khả năng thử nghiệm mô hình “nền tảng nhận hoa hồng sau khi người dùng click”, hoặc hiển thị một số quảng cáo hữu ích bên ngoài nội dung đầu ra, nhưng điều kiện tiên quyết là tuyệt đối không ảnh hưởng đến tính độc lập và độ tin cậy của đầu ra mô hình.
Andrew bày tỏ lo ngại tương tự và lấy Google làm ví dụ. Ông cho rằng mô hình Gemini 1.5 rất xuất sắc, nhưng với tư cách là công ty vận hành dựa trên quảng cáo, động cơ sâu xa của Google khiến người ta khó yên tâm hoàn toàn. “Tôi dùng API của họ thì không sao, nhưng khi dùng chatbot, tôi luôn tự hỏi: Liệu nó thực sự đứng về phía tôi chứ?”
Altman hiểu rõ điều này và thừa nhận bản thân từng là người dùng trung thành của Google Search: “Tôi thực sự rất thích Google Search.” Dù có rất nhiều quảng cáo, nhưng nó từng là “công cụ tốt nhất trên Internet.” Tuy nhiên, vấn đề cấu trúc vẫn tồn tại. Ông đánh giá cao mô hình của Apple, cho rằng “trả tiền để đổi lấy trải nghiệm sạch sẽ” là logic lành mạnh, đồng thời tiết lộ Apple từng thử kinh doanh quảng cáo iAd nhưng không thành công, có lẽ về bản chất họ không thực sự nhiệt tình với mô hình kinh doanh này.
Theo hai người, người dùng cũng cần giữ sự tỉnh táo. “Nếu một ngày thấy một sản phẩm nào đó ‘quảng bá mạnh bất thường’, thì chúng ta cần đặt câu hỏi: Động cơ đằng sau là gì?” Andrew nói vậy. Altman bổ sung rằng bất kể áp dụng mô hình kinh doanh nào trong tương lai, OpenAI phải luôn kiên trì nguyên tắc “cực kỳ chân thành, rõ ràng và minh bạch”, duy trì ranh giới niềm tin với nền tảng.
Stargate: Xây dựng bản đồ năng lượng cho trí tuệ
Khi chuyển sang chủ đề “sự tiến hóa trong mối quan hệ giữa AI và người dùng”, Altman trước tiên nhắc lại sai lầm cấu trúc trong thời đại mạng xã hội. Ông chỉ ra: “Vấn đề chết người nhất của các nền tảng xã hội là mục tiêu sai lệch của thuật toán đề xuất – chúng chỉ muốn bạn ở lại càng lâu càng tốt, chứ không thật sự quan tâm bạn cần gì.” Rủi ro tương tự cũng có thể xảy ra với AI. Ông cảnh báo nếu mô hình được tối ưu hóa để “chỉ chiều theo sở thích người dùng”, trông có vẻ thân thiện nhưng lại có thể làm suy yếu tính nhất quán và nguyên tắc của hệ thống, về dài hạn sẽ có hại chứ không có lợi.
Sự lệch hướng này từng xuất hiện ở DALL·E 3. Andrew nhận thấy vấn đề phong cách đơn điệu rõ rệt trong giai đoạn đầu tạo ảnh, Altman dù không xác nhận cơ chế huấn luyện, nhưng cũng thừa nhận khả năng này tồn tại. Hai người nhất trí rằng các mô hình ảnh thế hệ mới đã cải thiện đáng kể về chất lượng và tính đa dạng.
Thử thách lớn hơn đến từ nút thắt về tài nguyên tính toán của AI. Altman thừa nhận vấn đề lớn nhất hiện nay là “chúng tôi không có đủ năng lực tính toán để phục vụ mọi người.” Chính vì vậy, OpenAI đã khởi động Dự án Stargate. Đây là một dự án tài chính và xây dựng hạ tầng tính toán quy mô toàn cầu, nhằm tích hợp vốn, công nghệ và nguồn lực vận hành để xây dựng nền tảng tính toán chưa từng có tiền lệ.
“Lý luận cốt lõi của Stargate là xây dựng một nền tảng tính toán có chi phí kiểm soát được, phục vụ cho trí tuệ nhân tạo phổ cập,” ông giải thích. Khác với bất kỳ thế hệ công nghệ nào trước đây, để AI thực sự phủ sóng hàng tỷ người dùng, nhu cầu hạ tầng sẽ cực kỳ khổng lồ. Dù hiện tại tài khoản OpenAI chưa có ngân sách 500 tỷ USD, Altman rất tin tưởng vào việc thực hiện dự án và cam kết của các đối tác, đồng thời tiết lộ địa điểm xây dựng đầu tiên đã khởi công, chiếm khoảng 10% tổng đầu tư.
Trải nghiệm trực tiếp tại hiện trường khiến ông choáng ngợp: “Dù trong đầu tôi biết trung tâm dữ liệu quy mô gigawatt là gì, nhưng khi thực sự thấy hàng ngàn người đang lắp ráp phòng máy GPU, độ phức tạp của hệ thống vượt xa trí tưởng tượng.” Ông lấy ví dụ “không ai có thể tự tay sản xuất một cây bút chì” để nhấn mạnh quy mô huy động công nghiệp khổng lồ đằng sau Stargate, từ khai thác, sản xuất, logistics đến gọi mô hình, tất cả đều là đỉnh cao của sự hợp tác kỹ thuật nghìn năm loài người.
Trước nghi ngờ và can thiệp từ bên ngoài, Altman lần đầu tiên phản hồi trực diện về các báo cáo cho rằng Elon Musk cố gắng can thiệp vào dự án Stargate. Ông nói: “Tôi đã đánh giá sai trước đó, tôi từng nghĩ Elon sẽ không lạm dụng ảnh hưởng chính phủ để tham gia cạnh tranh bất chính.” Ông cảm thấy tiếc nuối về điều này, đồng thời nhấn mạnh hành vi như vậy không chỉ phá hủy niềm tin trong ngành mà còn bất lợi cho sự phát triển tổng thể của quốc gia. May mắn thay, cuối cùng chính phủ không bị ảnh hưởng, đã giữ vững lập trường đúng đắn.
Về cục diện cạnh tranh AI hiện tại, ông cảm thấy an lòng. Trước đây mọi người thường lo lắng “kẻ thắng ăn hết”, nhưng giờ đây ngày càng nhiều người nhận ra đây là một cuộc xây dựng hệ sinh thái chung. “Sự ra đời của AI giống như phát minh ra transistor, dù ban đầu chỉ nằm trong tay ít người, nhưng cuối cùng sẽ cấu thành nền tảng công nghệ cho cả thế giới.” Ông tin chắc rằng vô số doanh nghiệp sẽ tạo ra các ứng dụng và hoạt động vĩ đại dựa trên nền tảng này, bản chất AI là một “trò chơi cùng thắng”.
Khi nói đến nguồn năng lượng cần thiết cho năng lực tính toán, Altman nhấn mạnh “tất cả đều cần”. Bất kể là khí đốt tự nhiên, năng lượng mặt trời, năng lượng hạt nhân phân hạch hay công nghệ nhiệt hạch tương lai, OpenAI phải huy động mọi biện pháp để đáp ứng nhu cầu vận hành quy mô siêu lớn của hệ thống AI. Ông chỉ ra điều này đang dần phá vỡ ranh giới địa lý truyền thống của năng lượng, các trung tâm huấn luyện có thể bố trí ở bất kỳ đâu trên thế giới có tài nguyên, trong khi thành quả trí tuệ có thể được truyền tải với chi phí thấp qua Internet.
“Năng lượng truyền thống không thể điều phối toàn cầu, nhưng trí tuệ thì có thể.” Theo ông, con đường “chuyển đổi năng lượng thành trí tuệ, rồi đầu ra thành giá trị” đang tái cấu trúc toàn bộ bản đồ năng lượng của nhân loại.
Điều này cũng mở rộng sang lĩnh vực nghiên cứu khoa học. Andrew lấy ví dụ như Kính viễn vọng Không gian James Webb tích lũy lượng dữ liệu khổng lồ, nhưng do thiếu nhà khoa học xử lý, dẫn đến lượng “khám phá khoa học chưa được khai thác” rất lớn. Altman hình dung, liệu trong tương lai có thể có một AI đủ thông minh, không cần thí nghiệm mới, không cần thiết bị mới, chỉ dựa vào dữ liệu hiện có để suy luận ra quy luật khoa học mới?
Ông kể rằng từng đùa rằng OpenAI nên tự xây một máy gia tốc hạt khổng lồ, nhưng chợt nghĩ lại, có lẽ AI có thể giải quyết các bài toán vật lý năng lượng cao theo cách hoàn toàn khác. “Chúng ta thực ra đã tích lũy rất nhiều dữ liệu, vấn đề là chúng ta chưa hiểu giới hạn của trí tuệ bản thân nằm ở đâu.”
Trong lĩnh vực phát hiện thuốc, các trường hợp “bỏ lỡ những điều đã biết” còn phổ biến hơn. Andrew nhắc đến thuốc Orlistat được phát hiện từ những năm 90 nhưng do tầm nhìn hạn chế đã bị bỏ quên hàng thập kỷ, đến hôm nay mới được tận dụng lại. Altman cho rằng “có thể còn rất nhiều tài liệu khoa học bị lãng quên nhưng cực kỳ giá trị như vậy, chỉ cần định hướng nhẹ là có thể tạo ra đột phá lớn.”
Về kỳ vọng đối với mô hình thế hệ tiếp theo, Altman thể hiện sự quan tâm sâu sắc. Ông nói Sora có thể hiểu vật lý cổ điển, nhưng liệu có thể tiến xa hơn vào các lý thuyết khoa học sâu hơn hay không vẫn cần kiểm chứng. “Chúng tôi đang phát triển ‘mô hình suy luận’, có thể trở thành chìa khóa khám phá năng lực này.”
Ông giải thích thêm sự khác biệt giữa mô hình suy luận và dòng GPT hiện tại: “Ngay từ đầu chúng tôi đã phát hiện, chỉ cần bảo mô hình ‘hãy từng bước một’, chất lượng câu trả lời sẽ tăng mạnh. Điều này cho thấy mô hình tiềm ẩn đường dẫn suy luận.” Mục tiêu của mô hình suy luận là hệ thống hóa, cấu trúc hóa khả năng này, giúp mô hình có thể “tự nói chuyện nội tâm” như con người.
Andrew bổ sung ví dụ Anthropic dùng “thời gian suy nghĩ” để đánh giá chất lượng mô hình. Altman cũng ngạc nhiên: “Tôi từng nghĩ người dùng ghét nhất là chờ đợi. Nhưng thực tế là — miễn là câu trả lời đủ tốt, mọi người sẵn sàng chờ.”
Theo ông, đây chính là điểm phân chia trong tiến hóa AI: Không còn là phản hồi cơ khí theo tốc độ, mà là tiến gần đến các thực thể thông minh thật sự có khả năng hiểu, suy luận và sáng tạo.
Phần cứng thế hệ tiếp theo và cuộc cách mạng tiềm năng cá nhân
Về kế hoạch phần cứng của OpenAI, Andrew nhắc đến video hợp tác giữa Sam Altman và Jony Ive, và đặt câu hỏi trực tiếp: Thiết bị đã vào giai đoạn thử nghiệm chưa?
Altman thừa nhận: “Còn sớm lắm.” Ông nói OpenAI đặt ra ngưỡng chất lượng cực kỳ cao cho sản phẩm này, và đây không phải mục tiêu đạt được trong thời gian ngắn. “Máy tính chúng ta đang dùng hiện nay, dù phần cứng hay phần mềm, về bản chất vẫn được thiết kế cho ‘thế giới không AI’.”
Ông chỉ ra rằng khi AI có thể hiểu bối cảnh con người, thay con người ra quyết định hợp lý, cách tương tác giữa người và máy sẽ hoàn toàn thay đổi. “Bạn có thể muốn thiết bị nhạy cảm hơn, cảm nhận được môi trường, hiểu bối cảnh đời sống của bạn — bạn cũng có thể muốn nó hoàn toàn thoát khỏi màn hình và bàn phím.” Chính vì vậy, họ đang liên tục khám phá các hình thái thiết bị mới, và ở một số hướng đi cảm thấy rất hứng khởi.
Altman mô tả một khuôn mẫu tương tác hoàn toàn mới — một AI thực sự hiểu người dùng, nắm bắt bối cảnh, có thể thay người dùng tham gia họp, hiểu nội dung, quản lý ranh giới thông tin, liên hệ các bên liên quan và thúc đẩy thực hiện quyết định. Điều này sẽ đưa mối quan hệ giữa con người và thiết bị vào trạng thái cộng sinh mới. “Nếu bạn chỉ nói một câu, nó đã biết phải liên hệ ai, hành động thế nào, cách dùng máy tính của bạn sẽ hoàn toàn khác.”
Xét về logic tiến hóa, ông cho rằng cách chúng ta tương tác với ChatGPT hiện tại vừa “bị hình thái thiết bị định hình”, vừa “định hình ngược lại hình thái thiết bị”. Hai bên đang trong quá trình đồng tiến hóa liên tục.
Andrew tiếp tục chỉ ra rằng sự phổ biến của điện thoại di động phần lớn nhờ khả năng tương thích với cả “sử dụng công cộng (xem màn hình)” và “sử dụng riêng tư (gọi điện thoại)”. Do đó, thử thách của thiết bị mới cũng nằm ở chỗ: Làm sao đạt được “vừa riêng tư vừa phổ quát” trong các kịch bản đa dạng. Altman đồng tình. Ông lấy ví dụ nghe nhạc: Ở nhà dùng loa, ngoài đường dùng tai nghe, sự phân chia “công - tư” này tồn tại tự nhiên. Nhưng ông cũng nhấn mạnh, hình thái thiết bị mới vẫn cần theo đuổi tính phổ quát mạnh hơn, mới có thể trở thành thiết bị AI thực sự sống động.
Khi được hỏi bao giờ sẽ thấy sản phẩm này ra mắt, Altman không đưa ra thời gian cụ thể, chỉ nói “còn phải chờ một thời gian”, nhưng ông tin chắc rằng “cuối cùng sẽ đáng để chờ đợi”.
Cuộc trò chuyện tự nhiên chuyển sang lời khuyên của Altman dành cho người trẻ. Ông nói chiến lược rõ ràng nhất là: “Học cách dùng công cụ AI.” Theo ông, “thế giới đã nhanh chóng chuyển từ vài năm trước ‘bạn nên học lập trình’ sang ‘bạn nên học dùng AI’.” Và điều này thậm chí có thể chỉ là một giai đoạn chuyển tiếp, ông tin rằng trong tương lai sẽ xuất hiện “kỹ năng then chốt” mới.
Ở cấp độ vĩ mô hơn, ông nhấn mạnh rằng nhiều khả năng trước đây được coi là “thiên phú” hoặc “tính cách” thực ra đều có thể rèn luyện và học được. Bao gồm sức chịu đựng, khả năng thích nghi, sáng tạo, thậm chí cả trực giác nhận biết nhu cầu thật sự của người khác. “Dù không dễ như luyện dùng ChatGPT, nhưng những năng lực mềm này có thể được rèn luyện bằng phương pháp — và chúng sẽ cực kỳ có giá trị trong thế giới tương lai.”
Khi được hỏi liệu ông có đưa ra lời khuyên tương tự cho người 45 tuổi không, Altman trả lời rõ ràng: Về cơ bản là giống nhau. Học cách dùng AI hiệu quả trong bối cảnh nghề nghiệp của mình là thách thức chuyển dịch kỹ năng mà mọi lứa tuổi đều phải đối mặt.
Về sự thay đổi cấu trúc tổ chức sau khi AGI xuất hiện, Andrew đặt một câu hỏi phổ biến: “OpenAI đã mạnh như vậy, tại sao còn tuyển dụng?” Ông cho rằng một số người hiểu lầm rằng AGI sẽ thay thế mọi thứ. Nhưng câu trả lời của Altman rất gọn: “Tương lai chúng tôi sẽ có nhiều nhân viên hơn, nhưng năng suất mỗi người sẽ vượt xa thời kỳ trước AGI.”
Ông bổ sung rằng đây chính là mục tiêu bản chất của tiến bộ công nghệ — không phải thay thế con người, mà là tăng cường năng suất cá nhân lên mức cực cao. Công nghệ không phải điểm dừng, mà là chiếc thang dẫn đến tiềm năng con người cao hơn.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News












