
CTO của OpenAI tiết lộ các từ khóa về AGI: xuất hiện trong vòng một thập kỷ, cực kỳ tiên tiến, hệ thống trí tuệ
Tuyển chọn TechFlowTuyển chọn TechFlow

CTO của OpenAI tiết lộ các từ khóa về AGI: xuất hiện trong vòng một thập kỷ, cực kỳ tiên tiến, hệ thống trí tuệ
Phóng viên kỳ cự hỏi thẳng OpenAI về nguồn dữ liệu đào tạo.
Biên dịch: Mộc Mục
Chỉnh sửa: Văn Đao
Đầu tháng 7, tại Đại học Johns Hopkins, nhà báo công nghệ kỳ cựu, đồng dẫn chương trình podcast Pivot Kara Swisher đã có một cuộc đối thoại đầy căng thẳng với CTO của OpenAI Mira Murati, nhà khoa học máy tính, giáo sư Đại học Stanford Li Feifei cũng tham gia đặt câu hỏi, vai trò khác của bà là Giám đốc Khoa học về Trí tuệ nhân tạo và Máy học tại Google Cloud.
Mira Murati trở thành tâm điểm sau sự kiện "nội chiến" tại OpenAI năm ngoái, khi bà từng giữ chức CEO tạm thời trong thời gian Sam Altman bị sa thải. Trên thực tế, vị CTO này là nhân vật chủ chốt trong nhóm phát triển mô hình GPT-3 và thúc đẩy ChatGPT tiếp cận công chúng.
Trong cuộc trao đổi này, Kara Swisher đặt ra những câu hỏi sắc bén liên tiếp, chất vấn Mira Murati về các vấn đề nhạy cảm như “Dữ liệu huấn luyện của OpenAI đến từ đâu?”, “Sora có nguy cơ cao hơn chatbot không?”, “OpenAI bị cáo buộc sử dụng thỏa thuận bảo mật để ngăn nhân viên phát biểu công khai”, “Scarlett Johansson tố OpenAI sao chép giọng nói”, thậm chí còn trực tiếp hỏi ý kiến của bà về Sam Altman và mối quan hệ hiện tại giữa hai người.
Trước mọi câu hỏi gay gắt, Mira Murati “khéo léo” chọn cách không trả lời trực diện, dù phóng viên liên tục thay đổi cách hỏi, bà vẫn cố gắng giữ nhịp độ riêng, phần lớn thời gian tự trình bày theo kiểu chính thức quan điểm của OpenAI.
Quyền riêng tư dữ liệu, thông tin sai lệch, ảnh hưởng giá trị - những rủi ro AI mà con người vẫn lo ngại được nhắc đi nhắc lại trong cuộc đối thoại.
Theo Mira Murati, đây là sự hiểu lầm của con người đối với công nghệ AI. Để xóa bỏ hiểu lầm, ngoài việc các công ty AI phải tăng cường các biện pháp an toàn để giành lấy niềm tin, cần cả sự tham gia sâu rộng của công chúng vào quá trình tương tác với mô hình lớn và ứng dụng AI, từ đó hiểu được tiềm năng và giới hạn của công nghệ, cùng chia sẻ trách nhiệm với đội ngũ phát triển để đảm bảo AI phát triển theo hướng có lợi cho an toàn con người.
Kara Swisher nhiều lần truy vấn tiến độ hiện thực AGI (trí tuệ nhân tạo tổng quát) của OpenAI, nhưng Mira Murati kiên quyết giữ kín, không tiết lộ lịch trình cụ thể. Tuy nhiên, bà cho biết: “Trong thập kỷ tới, chúng ta sẽ sở hữu những hệ thống trí tuệ cực kỳ tiên tiến”, và không phải “những hệ thống trí tuệ theo nghĩa truyền thống mà chúng ta từng có”.
Toàn bộ cuộc đối thoại được đăng tải trên kênh YouTube chính thức của Đại học Johns Hopkins, dưới đây là nội dung tinh chọn:
Về hợp tác với Apple
“OpenAI không lưu trữ dữ liệu người dùng Apple”
Swisher: Máy tính, điện thoại và máy tính bảng của Apple sẽ tích hợp ChatGPT từ đầu năm nay, đây là sự kiện lớn. Đây là lần đầu tiên Apple làm vậy, về sau họ có thể hợp tác với các công ty khác. Tôi từng trao đổi ngắn với Tim Cook (CEO Apple), hiểu được góc nhìn của ông. Lần này, tôi muốn từ phía bạn (Mira Murati) nói rõ hơn, mối quan hệ hợp tác này diễn ra thế nào?
Murati: Hợp tác này là một mốc quan trọng với chúng tôi. Apple là công ty sản phẩm tiêu dùng mang tính biểu tượng, còn mục tiêu của chúng tôi là đưa trí tuệ nhân tạo và các ứng dụng AI xuất sắc đến đông đảo công chúng nhất có thể, hợp tác giúp đưa ChatGPT đến mọi người dùng thiết bị Apple là cơ hội tuyệt vời, người dùng không cần chuyển đổi giữa các thiết bị. Trong vài tháng tới, chúng tôi sẽ hợp tác chặt chẽ với Apple để xác định chi tiết sản phẩm, sớm chia sẻ thêm thông tin.
Swisher: Nếu bạn không phiền, tôi muốn biết thêm chi tiết cụ thể. Các bạn đang làm gì? Tôi từng thảo luận vấn đề này với Tim Cook, ông ấy nói người dùng có thể dùng ChatGPT để cải thiện Siri vì hiện nay Siri thật sự rất tệ.
Nhưng tình hình hiện tại khiến tôi nhớ đến Netscape, và rõ ràng bạn không muốn OpenAI trở thành Netscape trong lĩnh vực AI. (Chú thích biên tập: Netscape là một trong những doanh nghiệp khởi nghiệp sớm nhất và quan trọng nhất về trình duyệt Internet những năm 1990. Tuy nhiên, Microsoft đã cạnh tranh bằng cách tích hợp Internet Explorer vào hệ điều hành Windows, thách thức vị thế độc tôn của Netscape, khiến Netscape dần mất thị phần rồi cuối cùng bị mua lại.) Vậy tại sao các bạn lại hợp tác sớm hơn người khác với Apple?
Murati: Tôi có thể nói về mặt tích hợp sản phẩm. Chúng tôi muốn mang đến các chức năng mô hình, đa phương thức và khả năng tương tác mà chúng tôi đang phát triển, áp dụng một cách trưởng thành vào thiết bị Apple.
Gần đây bạn có thể chú ý đến việc phát hành GPT-4o. Đây là lần đầu tiên chúng ta thấy bước tiến vượt bậc về chiều hướng tương tác của các mô hình. Điều này rất ý nghĩa, bởi đến nay, tương tác của chúng ta với thiết bị bị giới hạn ở văn bản, nên đây là cơ hội tuyệt vời để có cách thức trao đổi thông tin phong phú và tự nhiên hơn, giảm đáng kể giới hạn tương tác. Nó mở ra nhiều khả năng, và đó chính là điều chúng tôi theo đuổi.
Hơn nữa, yêu cầu của người dùng sau khi gửi đến OpenAI sẽ không được chúng tôi lưu trữ, địa chỉ IP của người dùng cũng sẽ được ẩn đi, điều này rất quan trọng với Apple.
Swisher: Hãy nói rõ hơn về điểm này, các bạn có thu thập dữ liệu từ những yêu cầu này để huấn luyện mô hình không?
Murati: Không, hiện tại chúng tôi cũng không dùng dữ liệu người dùng hay khách hàng để huấn luyện mô hình, trừ khi họ đồng ý rõ ràng cho phép chúng tôi làm vậy.
Swisher: Apple rất coi trọng danh tiếng, đặc biệt về quyền riêng tư và thông tin sai lệch, họ sẽ quan tâm đến nơi đi và mục đích sử dụng thông tin này.
Murati: Quan điểm của chúng tôi rất đồng nhất, điều này sẽ dẫn dắt chúng tôi đi đúng hướng mong muốn. Quyền riêng tư và niềm tin cực kỳ quan trọng với sứ mệnh của OpenAI, vì chúng tôi phải xây dựng và triển khai công nghệ theo cách khiến mọi người tin tưởng, cảm thấy họ có quyền kiểm soát và tiếng nói trong việc xây dựng của chúng tôi.
Cụ thể về thông tin sai lệch mà bạn đề cập, đây là vấn đề rất phức tạp, vì thông tin sai lệch đã tồn tại hàng chục năm. Khi có Internet, có mạng xã hội, những thứ này một mức độ nào đó làm trầm trọng thêm vấn đề. Cùng với sự phát triển của AI, tình trạng thông tin sai lệch ngày càng nghiêm trọng, AI ngược lại đẩy các vấn đề này lên đỉnh điểm. Đây là điều tốt, vì vấn đề được chú ý, dường như có một nỗ lực tập thể và trách nhiệm tập thể thúc đẩy chúng ta làm một số việc có ý nghĩa để ứng phó.
Tôi cho rằng, đây là quá trình lặp lại, phải vừa đi vừa thử. Nếu nhìn lại 100 năm qua về quản lý tin tức và truyền thông, mỗi khi có công nghệ mới xuất hiện, mọi thứ thực sự thích nghi với sự thay đổi, có lẽ đây không phải ví dụ hay, nhưng sáng tạo công nghệ sẽ giúp chúng ta xử lý thông tin sai lệch, rồi mới đến các vấn đề khác phức tạp hơn, như xã hội chuẩn bị chưa.
Swisher: Nói về Apple, bạn phải hết sức cẩn thận, nếu không họ sẽ gây rắc rối. Tôi tò mò, mối quan hệ hợp tác này bắt đầu thế nào? Cuộc thảo luận giữa Tim Cook và Sam Altman bắt đầu từ đâu? Hay bạn tham gia như thế nào?
Murati: Tôi không nhớ rõ thời gian cụ thể, nhưng chuyện này đã ấp ủ một thời gian.
Về nguồn dữ liệu
Huấn luyện mô hình dùng dữ liệu “công khai, hợp tác và được cấp phép”
Swisher: Các bạn có đang thảo luận hợp tác tương tự với các công ty khác không? Rõ ràng, các bạn có mối quan hệ hợp tác với Microsoft. Gần đây, OpenAI đã ký thỏa thuận với Tập đoàn Tin tức, The Atlantic và Vox Media, cho phép sử dụng nội dung của các phương tiện này, ít nhất tránh được ba tranh chấp pháp lý tiềm tàng.
Tôi thực sự có podcast riêng, nhưng nó không nằm trong giao dịch của các bạn với Vox Media, tôi có thể cân nhắc cấp phép, nhưng khả năng thấp, vì tôi không muốn bất kỳ ai, kể cả các bạn, sở hữu thông tin của tôi. Vậy các bạn sẽ thuyết phục tôi như thế nào để cấp phép thông tin?
Murati: Khi dùng dữ liệu để huấn luyện mô hình, chúng tôi xem xét ba loại nguồn dữ liệu khác nhau: dữ liệu công khai, các nhà xuất bản hợp tác với chúng tôi và dữ liệu đặc thù do chúng tôi trả tiền để nhân viên gắn thẻ, bao gồm cả người dùng chọn đồng ý cho chúng tôi dùng dữ liệu của họ. Đây là nguồn dữ liệu chính của chúng tôi.
Về hợp tác với các nhà xuất bản, chúng tôi rất coi trọng tính chính xác và giá trị tin tức, vì người dùng của chúng tôi cũng quan tâm đến những điều này. Họ muốn có thông tin chính xác và thấy tin tức trên ChatGPT. Do đó, mối quan hệ hợp tác này dựa trên sản phẩm, cung cấp giá trị cho người dùng thông qua sản phẩm.
Chúng tôi đang khám phá các mô hình kinh doanh khác nhau để bồi thường cho người sáng tạo nội dung, vì dữ liệu của họ được dùng để hiển thị sản phẩm hoặc huấn luyện mô hình, nhưng tất cả đều là hợp tác một-một với các nhà xuất bản cụ thể.
Swisher: Các bạn quả thực đã ký thỏa thuận với một số phương tiện, nhưng vẫn có công ty chọn kiện các bạn, ví dụ như The New York Times. Tại sao lại đến mức đó? Tôi nghĩ kiện tụng một mức độ nào đó cũng là phương tiện đàm phán.
Murati: Điều này thật đáng tiếc, vì chúng tôi chắc chắn rằng tích hợp dữ liệu tin tức và thông tin liên quan vào sản phẩm là có giá trị. Chúng tôi từng cố gắng đạt được thỏa thuận, nhưng không thành.
Swisher: Ừ, có lẽ một ngày nào đó tình hình sẽ tốt hơn. Nhưng tôi nghĩ nguyên nhân là vì phương tiện truyền thông nhiều năm qua luôn giao thiệp với các công ty Internet, kết quả thường là họ chịu thiệt. Tiếp theo, theo truyền thống chương trình, mời vị khách mời khác đặt câu hỏi.
Li Feifei: Dữ liệu, đặc biệt là dữ liệu lớn, được coi là một trong ba yếu tố then chốt để con người thông minh hơn hiện đại, tôi muốn đặt một câu hỏi về dữ liệu. Thành công của OpenAI phần lớn liên quan đến dữ liệu, chúng tôi biết OpenAI lấy dữ liệu khổng lồ từ Internet và các nguồn khác. Vậy theo bạn, mối quan hệ giữa dữ liệu và mô hình là gì? Có phải như người ta thường nghĩ rằng càng nhiều dữ liệu, cho mô hình ăn càng nhiều thì mô hình càng mạnh? Hay chúng ta cần bỏ nhiều công sức lọc các loại dữ liệu lớn để đảm bảo mô hình vận hành hiệu quả? Cuối cùng, các bạn cân bằng thế nào giữa nhu cầu dữ liệu lớn do con người tạo ra và vấn đề sở hữu, quyền lợi liên quan đến những dữ liệu đó?
Murati: Về mối quan hệ giữa dữ liệu và mô hình, nhiều người có một số hiểu lầm về mô hình AI, đặc biệt là mô hình ngôn ngữ lớn.
Nhà phát triển mô hình không lập trình trước để mô hình thực hiện nhiệm vụ cụ thể. Thực tế, họ đưa vào lượng dữ liệu khổng lồ. Những mô hình này hấp thụ dữ liệu lớn, chúng là hệ thống khớp mẫu tuyệt vời, qua quá trình này, trí tuệ nổi lên. Mô hình do đó học viết, học lập trình, học toán cơ bản, học tóm tắt thông tin và đủ thứ việc khác.
Chúng tôi không biết rõ nó hoạt động thế nào, nhưng chúng tôi biết nó rất hiệu quả, học sâu thật sự mạnh mẽ. Tuy nhiên điều này rất quan trọng, vì người ta thường hỏi nó hoạt động ra sao, điều này dẫn đến vấn đề minh bạch.
Nguyên lý hoạt động của mô hình ngôn ngữ lớn là kết hợp kiến trúc mạng thần kinh, lượng dữ liệu lớn và tính toán lớn, từ đó tạo ra trí tuệ đáng kinh ngạc. Khả năng này tiếp tục tăng khi bạn đầu tư thêm dữ liệu và tính toán.
Tất nhiên, để dữ liệu này dễ tiêu hóa, chúng tôi phải làm rất nhiều việc. Khi suy nghĩ về cách cung cấp hành vi mô hình và minh bạch về cách vận hành, chúng tôi có một số công cụ có thể dùng, vì chúng tôi muốn người dùng cảm thấy tự tin khi dùng các mô hình này, đồng thời có cảm giác kiểm soát và tham gia.
Do đó, một việc chúng tôi làm thực tế là chia sẻ công khai một tài liệu, chúng tôi gọi là đặc tả mô hình, cho thấy nguyên lý hoạt động của hành vi mô hình, các loại quyết định chúng tôi đưa ra bên trong OpenAI, cũng như các quyết định chúng tôi đưa ra cùng nhân viên gắn thẻ. Đặc tả quy định cách hành xử hiện tại của mô hình, cũng như hành vi mô hình cần trong tương lai, điều này áp dụng xuyên nền tảng.
Xem đặc tả bạn sẽ thấy sự phức tạp, đôi khi có xung đột về định hướng, ví dụ chúng tôi muốn mô hình hỗ trợ chúng tôi rất nhiều, đồng thời không được vi phạm pháp luật.
Giả sử ai đó nhập gợi ý yêu cầu “mẹo ăn cắp đồ từ siêu thị”, thì mô hình vốn nên trả lời lại không nên xử lý việc bất hợp pháp, nhưng đôi khi mô hình có thể hiểu câu hỏi là làm thế nào tránh bị trộm cắp nhà cửa, rồi khi đưa ví dụ phản bác lại đưa ra một số gợi ý “hữu ích”. Điều này cho thấy hành vi mô hình thực tế rất phức tạp, nó không thể đơn giản chọn tự do hay các giá trị khác. Trong trường hợp này, phụ thuộc nhiều hơn vào cách người dùng dùng nó.
Swisher: Nhưng tôi nghĩ điều khiến người ta bối rối là dữ liệu nào trong mô hình và dữ liệu nào không, nguồn dữ liệu là khâu quan trọng. Tháng Ba, khi bạn trả lời phỏng vấn tờ Wall Street Journal, người ta hỏi OpenAI có dùng dữ liệu video từ YouTube, Instagram và Facebook để huấn luyện mô hình tạo video từ văn bản Sora không. Lúc đó, bạn nói không chắc. Nhưng là CTO, bạn không nên biết dùng dữ liệu gì sao?
Murati: Tôi không thể nói cụ thể dữ liệu đến từ đâu, đây là bí mật thương mại để duy trì lợi thế cạnh tranh của chúng tôi, nhưng tôi có thể nói về loại dữ liệu: 1. dữ liệu công khai; 2. dữ liệu chúng tôi trả tiền để có thông qua giấy phép và giao dịch với nhà cung cấp nội dung; 3. dữ liệu người dùng cho phép.
Swisher: Gần đây Perplexity gặp rắc rối vì nhanh chóng thu thập báo chí trên mạng mà không trích dẫn rõ nguồn, bất kỳ công ty truyền thông nào cũng lo lắng về điều này.
Murati: Đúng vậy, chúng tôi muốn đảm bảo tôn trọng người sáng tạo nội dung, đang thử nghiệm một số cách bồi thường cho người tạo dữ liệu. Vì vậy, chúng tôi đang phát triển một công cụ gọi là “quản lý phương tiện nội dung” (content media manager), sẽ giúp chúng tôi nhận diện cụ thể hơn loại dữ liệu.
Về quyền truy cập
Trước khi đưa Sora đến công chúng “phải xây dựng biện pháp bảo vệ”
Swisher: Sora khi nào phát hành công chúng?
Murati: Chúng tôi chưa có kế hoạch phát hành công chúng Sora, hiện tại, chúng tôi đã để một số người dùng ban đầu và người sáng tạo nội dung dùng Sora, để giúp chúng tôi tìm ra cách cải thiện chức năng.
Chúng tôi đã làm rất nhiều việc về an toàn, cũng đang nghiên cứu cách ra mắt phù hợp với công chúng. Việc này không đơn giản, cũng là quy trình nhất quán của chúng tôi khi phát triển mỗi công nghệ mới. Khi phát hành DALL-E, chúng tôi cũng hợp tác với người sáng tạo trước, họ giúp chúng tôi tạo giao diện dễ dùng hơn. Về cơ bản, chúng tôi muốn mở rộng khả năng sáng tạo của con người.
Swisher: Vậy Sora có thể nguy hiểm hơn chatbot? Công nghệ này có đáng lo không? Ví dụ người ta (nhờ AI) có thể dễ dàng xem phim khiêu dâm đổi đầu thành Scarlett Johansson. Bạn có lo lắng hơn về vấn đề video không?
Murati: Đúng vậy, video còn nhiều vấn đề, đặc biệt khi nó làm rất tốt. Tôi nghĩ Sora làm rất xuất sắc, tạo video rất trực quan, có thể biểu đạt cảm xúc. Vì vậy, chúng tôi phải giải quyết mọi vấn đề an toàn, xây dựng biện pháp bảo vệ để đảm bảo sản phẩm ra mắt vừa hữu ích vừa an toàn. Về mặt thương mại, không ai muốn sản phẩm gây ra khủng hoảng an toàn hay danh tiếng.
Swisher: Đúng, giống như Facebook Live (Chú thích biên tập: Facebook Live là tính năng livestream do Facebook ra mắt, trong giai đoạn đầu gặp phải vấn đề phát trực tiếp bạo lực, gây áp lực quản lý và ảnh hưởng tiêu cực cho Facebook).
Murati: Công nghệ kỳ diệu này thực sự khó tin, nhưng ảnh hưởng và hậu quả cũng rất lớn. Vì vậy, đảm bảo chúng tôi làm đúng điều này rất quan trọng.
Chúng tôi áp dụng chiến lược triển khai từng phần, thường phát hành cho một nhóm nhỏ người dùng trước, nhằm cố gắng nhận diện các trường hợp cực đoan. Khi có thể xử lý tốt các trường hợp này, mới mở rộng quyền truy cập. Nhưng bạn cần xác định rõ cốt lõi sản phẩm là gì, và mô hình kinh doanh xung quanh nó là gì, từ đó cải tiến.
Swisher: Tôi từng làm chuyên đề “công ty công nghệ sơ kỳ thiếu quan tâm hậu quả”, họ biến chúng tôi thành người thử nghiệm cho các sản phẩm Internet ban đầu. Nếu họ phát hành xe theo thái độ này thì công chúng tuyệt đối không dung thứ, họ sẽ bị kiện đến phá sản.
Nhưng nhiều công nghệ phát hành dạng phiên bản thử nghiệm, rồi được công chúng chấp nhận. Với khái niệm hậu quả này, là CTO, dù bạn không thể hiểu rõ mọi hậu quả, bạn có cảm thấy với mỗi phát minh cần có sự tôn trọng nhân văn đầy đủ và nhận thức rõ hậu quả nó tạo ra không?
Murati: Chúng tôi sẽ đánh giá hậu quả từ bản thân và xã hội, và không nhất thiết là hậu quả pháp lý hay quản lý, mà là làm đúng về mặt đạo đức.
Tôi lạc quan, tôi nghĩ công nghệ AI thật sự phi thường, nó sẽ giúp chúng tôi tạo ra kết quả đáng kinh ngạc, tôi hào hứng với tiềm năng của nó trong khoa học, khám phá, giáo dục đặc biệt là y tế. Nhưng bạn biết đấy, mỗi khi bạn sở hữu thứ mạnh mẽ như vậy, sẽ có nguy cơ thảm họa, và con người luôn cố gắng khuếch đại hậu quả.
Swisher: Đúng vậy, tôi từng trích dẫn câu của Paul Verily trong sách, “khi bạn phát minh thuyền, bạn cũng phát minh tai nạn tàu thủy”, nhưng bạn đã sửa lại suy nghĩ lo lắng thái quá của tôi.
Murati: Tôi không đồng ý với những quan điểm lo lắng thái quá này, vì tôi có nền tảng kỹ thuật, kỹ thuật luôn có rủi ro. Toàn bộ nền văn minh nhân loại xây dựng trên thực tiễn kỹ thuật. Như thành phố chúng ta, cầu nối mọi thứ, nhưng luôn đi kèm rủi ro. Vì vậy, cần chúng tôi quản lý rủi ro này một cách có trách nhiệm.
Đây không chỉ là trách nhiệm của người phát triển, mà là trách nhiệm chung. Để chia sẻ trách nhiệm trở thành hiện thực, chúng tôi thực tế cần cung cấp quyền truy cập và công cụ cho người dân, dẫn dắt họ tham gia, chứ không xây dựng công nghệ trong môi trường chân không, tạo ra những công nghệ người dân không thể tiếp cận.
Về GPT-5 và AGI
“Mô hình lớn thế hệ tiếp theo sẽ rất mạnh mẽ, đáng mong đợi”
Swisher: Các bạn trước đó đã công bố ChatGPT-4 nâng cấp – GPT-4o, tôi rất thích cái tên này. Các bạn cũng công bố đang huấn luyện mô hình mới – GPT-5. Nó có tăng theo cấp số nhân không? Dự kiến khi nào phát hành?
Murati: O đại diện cho Omni, nghĩa là “mô hình đa phương thức”, nghĩa là tích hợp mọi phương thức – hình ảnh, văn bản, âm thanh. Điểm đặc biệt của mô hình này là lần đầu tiên đạt được tương tác liền mạch và tự nhiên với mô hình. Ngoài ra, độ trễ gần như không khác gì trao đổi trực diện, hầu như không cảm nhận được. Đây là bước tiến lớn trong tương tác với AI, rất khác biệt so với các phiên bản trước đây chúng tôi phát hành.
Chúng tôi muốn tất cả người dùng đều trải nghiệm miễn phí tính năng mới nhất, hy vọng mọi người đều hiểu công nghệ này có thể làm gì, các phương thức mới trông ra sao, đồng thời cũng hiểu được giới hạn của nó. Như tôi đã nói, bạn cung cấp quyền truy cập cho người dân, dẫn dắt họ tham gia, chỉ khi trải nghiệm mới có cảm giác trực quan, từ đó dễ dàng hiểu tiềm năng và giới hạn của công nghệ.
Swisher: GPT-4o như món khai vị nhỏ, thế hệ thứ năm sẽ khác biệt thế nào? Là cải tiến dần hay bước nhảy vọt lớn?
Murati: Chúng tôi chưa biết, nhưng sẽ từng chút công bố... Tôi thực tế cũng không biết chúng tôi sẽ gọi nó là gì, nhưng mô hình lớn thế hệ tiếp theo sẽ rất mạnh mẽ, đáng mong đợi, giống như bước nhảy vọt lớn chúng tôi thấy từ GPT-3 đến GPT-4. Cụ thể thế nào chúng tôi chưa xác định.
Swisher: Bạn nghĩ mô hình thế hệ tiếp theo sẽ có chức năng gì? Điểm này bạn chắc chắn biết.
Murati: Đến lúc đó sẽ biết.
Swisher: Đến lúc đó tôi chắc chắn sẽ biết, còn bạn thì sao? Bây giờ bạn biết gì?
Murati: Ngay cả tôi cũng không biết.
Swisher: Thật vậy sao? Được rồi. Bạn từng nói với tôi về lộ trình nội bộ của OpenAI, dự đoán sẽ đạt được AGI, tức trí tuệ nhân tạo tổng quát vào năm 2027, đây sẽ là sự kiện lớn. Hãy giải thích tầm quan trọng của AGI, bạn dự đoán khi nào đạt được AGI?
Murati: Người ta định nghĩa AGI theo nhiều cách khác nhau, định nghĩa của chúng tôi về AGI có căn cứ hiến chương, đó là hệ thống có thể hoàn thành các công việc có giá trị kinh tế trên nhiều lĩnh vực khác nhau.
Từ tình hình hiện tại, định nghĩa về trí tuệ luôn thay đổi. Trước đây, chúng tôi dùng bài kiểm tra tiêu chuẩn học thuật để kiểm tra mức độ thông minh của hệ thống; khi đạt đến các tiêu chuẩn này, chúng tôi chuyển sang các kỳ thi, ví dụ kỳ thi trường học; cuối cùng, khi bão hòa các tiêu chuẩn thi, chúng tôi phải nghĩ ra các bài kiểm tra mới. Điều này khiến bạn suy nghĩ, trong môi trường làm việc chúng tôi đánh giá thích nghi và trí tuệ thế nào, ví dụ phỏng vấn, thực tập v.v...
Vì vậy tôi dự đoán định nghĩa này (về trí tuệ và AIG) sẽ tiếp tục thay đổi. Theo tôi, có lẽ quan trọng hơn là đánh giá, đánh giá và dự đoán ảnh hưởng của nó trong thế giới thực, dù là ảnh hưởng xã hội hay kinh tế. Tôi nghĩ điều quan trọng là nó ảnh hưởng xã hội thế nào, và tốc độ thấm sâu thực tế ra sao.
Swisher: Theo định nghĩa này, OpenAI dự kiến khi nào đạt được AGI? Thời điểm 2027 có chính xác không?
Murati: Tôi chỉ có thể nói trong thập kỷ tới, chúng ta sẽ có những hệ thống trí tuệ cực kỳ tiên tiến.
Swisher: Hệ thống trí tuệ? Đó là hệ thống trí tuệ theo nghĩa truyền thống sao?
Murati: Thực ra tôi nghĩ chúng ta đã có hệ thống trí tuệ theo nghĩa truyền thống.
Về lo ngại an toàn AI
“Phải tham gia sâu mới hiểu được tiềm năng và rủi ro”
Swisher: Bên trong OpenAI vừa có người vì lợi ích nhân loại, vừa có người theo đuổi nghìn tỷ đô, hoặc ở giữa hai thái cực, tôi nghĩ bạn thuộc nhóm này.
Vào tháng 6 năm ngoái, 13 nhân viên hiện tại và cũ của OpenAI và Google DeepMind đã ký thư công khai kêu gọi công ty trao cho họ quyền cảnh báo về trí tuệ nhân tạo tiên tiến. Sau đó, nhân viên của Meta, Google và Microsoft cũng từng ký lá thư này.
Trong trường hợp này, có nhân viên OpenAI nói rằng “các thỏa thuận bảo mật rộng rãi ngăn chúng tôi bày tỏ lo ngại, trừ khi công ty giải quyết các vấn đề này”, theo tôi hiểu, điều này cơ bản là nói “chúng tôi không thể nói sự thật, nếu không sẽ chết”. Khi có nhân viên OpenAI lo sợ bị trả thù, bạn phản hồi thế nào?
Tôi sẽ không đi sâu vào vấn đề cổ phần, vì các bạn đã xin lỗi và sửa chữa, nhưng nhiệm vụ của nhân viên các bạn không phải là bày tỏ lo ngại sao? Không thể bày tỏ ý kiến khác biệt sao?
Murati: Chúng tôi cho rằng tranh luận rất quan trọng, có thể công khai bày tỏ lo ngại và thảo luận các vấn đề an toàn, chúng tôi tự làm như vậy, từ khi OpenAI thành lập, chúng tôi đã công khai bày tỏ lo ngại về thông tin sai lệch, thậm chí đã nghiên cứu các vấn đề này từ thời GPT-2.
Tôi nghĩ trong vài năm qua, công nghệ đã đạt được tiến bộ đáng kinh ngạc, điều này không thể dự đoán, cũng làm trầm trọng thêm lo lắng chung của mọi người về khả năng ứng phó của xã hội. Khi chúng tôi tiếp tục tiến bộ, cũng thấy khoa học dẫn dắt chúng tôi đi đâu.
Việc mọi người cảm thấy sợ hãi và lo lắng về tương lai là có thể hiểu được, tôi đặc biệt nhấn mạnh rằng công việc chúng tôi làm tại OpenAI và cách chúng tôi triển khai các mô hình này đến từ một đội ngũ phi thường, theo cách rất an toàn, triển khai các mô hình mạnh nhất. Về điều này, tôi rất tự hào.
Tôi cũng cho rằng, xét đến tốc độ tiến bộ công nghệ và tốc độ tiến bộ của bản thân chúng tôi, việc nỗ lực gấp đôi để chú ý đến tất cả những điều này, thảo luận cách chúng tôi suy nghĩ về rủi ro huấn luyện và triển khai mô hình tiên tiến, là vô cùng quan trọng.
Swisher: Tôi làm rõ ý tôi. Thứ nhất, tại sao các bạn cần chế độ bảo mật nghiêm ngặt hơn các công ty khác? Thứ hai, lá thư công khai này được phát hành sau loạt tin tức nghỉ việc đình đám của các bạn, ví dụ Jan Leike và Ilya Sutskever, từng lãnh đạo nhóm Siêu căn chỉnh chịu trách nhiệm an toàn.
Tôi nghĩ việc Ilya rời đi không gây ngạc nhiên, nhưng Leike từng đăng trên X nói rằng văn hóa an toàn và quy trình của OpenAI trong một năm qua đã bị thay thế bằng sản phẩm bóng bẩy. Đây có thể là chỉ trích mạnh nhất đối với các bạn, cũng có thể là một trong những nguyên nhân gây chia rẽ công ty.
Bạn nhấn mạnh OpenAI rất coi trọng an toàn, còn họ nói không, bạn phản hồi thế nào trước chỉ trích này?
Murati: Trước hết, nhóm căn chỉnh không phải là đội an toàn duy nhất tại OpenAI, đây là đội an toàn quan trọng, nhưng cũng chỉ là một trong số đó. Tại OpenAI, có rất nhiều người làm việc về an toàn. Tôi sẽ tiếp tục giải thích điểm này.
Jan Leike là đồng nghiệp nghiên cứu tuyệt vời, tôi làm việc với anh ấy ba năm, rất kính trọng anh ấy, sau khi rời OpenAI anh ấy gia nhập Anthropic.
Xét đến tiến bộ dự kiến trong lĩnh vực của chúng tôi, tôi nghĩ mọi người trong ngành, bao gồm cả chúng tôi, cần nỗ lực gấp đôi trong các nhiệm vụ như an toàn, an ninh, chuẩn bị và tham gia quản lý. Nhưng tôi không đồng ý với phát biểu “chúng tôi đặt sản phẩm trước an toàn” hoặc “ưu tiên hơn an toàn”.
Swisher: Bạn nghĩ tại sao họ lại nói như vậy? Đây đều là người từng làm việc với bạn.
Murati: Vậy bạn có thể cần lấy câu trả lời từ chính họ.
Nhiều người xem an toàn là điều tách biệt khỏi năng lực, cho rằng chúng là lựa chọn song song. Tôi rất quen thuộc với ngành hàng không vũ trụ và ô tô, những ngành này có tư duy an toàn và hệ thống rất trưởng thành. Những người trong ngành này không nhất thiết tranh luận tại bàn họp về an toàn là gì, vì điều này là đương nhiên và khá trưởng thành. Vì vậy, tôi nghĩ toàn ngành cần ngày càng chuyển hướng sang một ngành an toàn có kinh nghiệm phong phú.
Chúng tôi có hệ thống an toàn, kỷ luật nghiêm ngặt về an toàn vận hành, không chỉ kỷ luật thao tác, mà còn an toàn sản phẩm và triển khai hiện tại của chúng tôi, bao gồm các vấn đề như thiên kiến có hại, ví dụ thông tin sai lệch, phân loại viên v.v...
Chúng tôi cũng đang cân nhắc vấn đề căn chỉnh mô hình dài hạn, dự định dùng RLHF (học tăng cường với phản hồi con người) để làm việc này, đồng thời giải quyết các vấn đề căn chỉnh phát sinh do mô hình ngày càng mạnh.
Swisher: Nhưng OpenAI thường xuyên bị cáo buộc như vậy (sản phẩm > an toàn). Tôi nghĩ nguyên nhân là vì các bạn là công ty dẫn đầu hiện tại. Nhưng khi có người nghỉ việc từ
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News














