
Các nhà nghiên cứu của OpenAI rời công ty và lên tiếng phản đối: ChatGPT đang bán quảng cáo — Ai sẽ bảo vệ quyền riêng tư của bạn?
Tuyển chọn TechFlowTuyển chọn TechFlow

Các nhà nghiên cứu của OpenAI rời công ty và lên tiếng phản đối: ChatGPT đang bán quảng cáo — Ai sẽ bảo vệ quyền riêng tư của bạn?
ChatGPT đã tích lũy một kho lưu trữ chưa từng có về các cuộc trò chuyện thành thật giữa con người; một khi mô hình quảng cáo được áp dụng, nền tảng này rất dễ biến thành công cụ khai thác thông tin riêng tư của người dùng nhằm thao túng tâm lý.
Tác giả: Zoë Hitzig
Biên dịch: TechFlow
Giới thiệu của TechFlow: Khi OpenAI công bố thử nghiệm quảng cáo trong ChatGPT, cựu nhà nghiên cứu của công ty – Zoë Hitzig – đã từ chức và viết bài phơi bày sự chuyển dịch giá trị nội bộ. Tác giả chỉ ra rằng ChatGPT đã tích lũy một kho lưu trữ chưa từng có về những cuộc trò chuyện thành thật của con người; việc áp dụng mô hình quảng cáo vào kho dữ liệu này dễ dàng biến sản phẩm thành công cụ thao túng tâm lý dựa trên thông tin riêng tư nhạy cảm của người dùng. Bà cảnh báo rằng OpenAI đang đi lại con đường cũ của Facebook – “đầu tiên cam kết, sau đó vi phạm” – đặt mức độ tương tác của người dùng lên trên an toàn. Bài viết đi sâu phân tích nghịch lý đạo đức trong việc huy động vốn cho AI, đồng thời đề xuất các giải pháp thay thế như hỗ trợ chéo liên doanh, giám sát độc lập và ủy thác dữ liệu, kêu gọi ngành công nghiệp tỉnh táo trước động cơ lợi ích đằng sau “chứng loạn thần chatbot”.
Toàn văn như sau:
Tuần này, OpenAI bắt đầu thử nghiệm quảng cáo trên ChatGPT. Tôi cũng vừa rời công ty. Trước đây, tôi làm việc tại đây với vai trò nhà nghiên cứu trong hai năm, phụ trách hỗ trợ xây dựng các mô hình AI và mô hình định giá của chúng, đồng thời định hướng các chính sách an toàn ban đầu khi các tiêu chuẩn ngành còn chưa được thiết lập.
Tôi từng tin rằng mình có thể giúp những người phát triển AI chạy trước các vấn đề mà công nghệ này có thể gây ra. Nhưng những gì xảy ra tuần này đã xác nhận thực tế mà tôi dần nhận ra: OpenAI dường như đã ngừng đặt ra những câu hỏi mà lúc đầu tôi gia nhập công ty nhằm góp phần trả lời.
Tôi không cho rằng quảng cáo là hành vi phi đạo đức hay vi phạm luân lý. Việc vận hành AI cực kỳ tốn kém, và quảng cáo có thể trở thành nguồn thu then chốt. Tuy nhiên, tôi có những băn khoăn sâu sắc về chiến lược của OpenAI.
Trong vài năm qua, người dùng ChatGPT đã tạo nên một kho lưu trữ chưa từng có về những cuộc trò chuyện thành thật giữa con người, một phần vì họ tin rằng mình đang trò chuyện với một đối tượng không có mục đích khuất tất nào. Người dùng đang tương tác với một hệ thống giọng nói mang tính hội thoại và thích ứng cao, và tiết lộ với nó những suy nghĩ riêng tư nhất. Họ kể với chatbot nỗi sợ bệnh tật, những rắc rối trong tình cảm, niềm tin vào Thượng đế và đời sau. Một mô hình quảng cáo được xây dựng dựa trên kho dữ liệu này rất dễ dẫn đến việc thao túng người dùng theo những cách mà hiện nay chúng ta chưa có công cụ nào để hiểu – chứ chưa nói đến ngăn chặn.
Nhiều người khung định vấn đề tài trợ cho AI như một lựa chọn “chọn cái ít tệ hơn”: hoặc giới hạn quyền truy cập vào công nghệ mang tính chuyển đổi này ở một nhóm nhỏ người giàu có đủ khả năng chi trả; hoặc chấp nhận quảng cáo, dù điều đó đồng nghĩa với việc khai thác nỗi sợ và ham muốn sâu kín nhất trong lòng người dùng để bán sản phẩm. Tôi cho rằng đây là một nghịch đề giả tạo. Các công ty công nghệ hoàn toàn có thể tìm kiếm những phương án khác – vừa đảm bảo các công cụ này tiếp cận được đại đa số người dùng, vừa hạn chế động cơ của công ty trong việc giám sát, xây dựng hồ sơ và thao túng người dùng.
OpenAI khẳng định sẽ tuân thủ các nguyên tắc về quảng cáo trên ChatGPT: quảng cáo sẽ được gắn nhãn rõ ràng, xuất hiện ở cuối phần trả lời và không ảnh hưởng đến nội dung phản hồi. Tôi tin phiên bản quảng cáo đầu tiên có thể tuân thủ những nguyên tắc này. Nhưng tôi lo ngại rằng các phiên bản nâng cấp sau đó sẽ không còn như vậy, bởi công ty đang xây dựng một động cơ kinh tế mạnh mẽ – thứ sẽ tạo ra những động lực mãnh liệt nhằm phá bỏ chính các quy tắc do nó tự đặt ra. (Báo New York Times đã khởi kiện OpenAI về hành vi xâm phạm bản quyền nội dung tin tức động thái liên quan đến hệ thống AI. OpenAI phủ nhận các cáo buộc này.)
Ở giai đoạn đầu, Facebook từng cam kết người dùng sẽ kiểm soát dữ liệu của mình và được biểu quyết về các thay đổi chính sách. Nhưng những cam kết này sau đó đều sụp đổ. Công ty hủy bỏ cơ chế biểu quyết công khai về chính sách. Những thay đổi về quyền riêng tư từng được quảng bá là “trao thêm quyền kiểm soát dữ liệu cho người dùng” sau đó bị Ủy ban Thương mại Liên bang Hoa Kỳ (FTC) phát hiện thực chất phản tác dụng – khiến thông tin cá nhân trở nên công khai. Tất cả những điều này diễn ra dần dần dưới áp lực của mô hình quảng cáo, vốn đặt mức độ tương tác (Engagement) lên trên hết.
Việc suy giảm các nguyên tắc cốt lõi của OpenAI do nỗ lực tối đa hóa mức độ tương tác có thể đã bắt đầu. Việc tối ưu hóa mức độ tương tác chỉ nhằm tăng doanh thu quảng cáo là hành vi vi phạm các nguyên tắc của công ty; tuy nhiên, theo báo cáo, công ty hiện đã tiến hành tối ưu hóa theo số lượng người dùng hoạt động hàng ngày – rất có thể bằng cách khuyến khích mô hình thể hiện thái độ chiều chuộng và xu nịnh hơn. Sự tối ưu hóa này khiến người dùng cảm thấy ngày càng lệ thuộc vào sự hỗ trợ của AI trong đời sống. Chúng ta đã chứng kiến hậu quả của sự lệ thuộc quá mức, bao gồm các ca “chứng loạn thần chatbot (Chatbot Psychosis)” được ghi nhận bởi bác sĩ tâm thần, cũng như các khiếu nại cho rằng ChatGPT đã củng cố ý định tự tử ở một số người dùng.
Dẫu vậy, doanh thu từ quảng cáo thực sự góp phần đảm bảo các công cụ AI mạnh nhất sẽ không mặc định chỉ dành riêng cho những người đủ khả năng chi trả. Thật vậy, Anthropic tuyên bố sẽ không bao giờ chạy quảng cáo trên Claude; nhưng số người dùng hoạt động hàng tuần của Claude chỉ chiếm một phần nhỏ trong tổng số 800 triệu người dùng hoạt động hàng tuần của ChatGPT – chiến lược thu nhập của họ hoàn toàn khác biệt. Ngoài ra, phí đăng ký cao cấp cho ChatGPT, Gemini và Claude hiện nay lên tới 200–250 USD/tháng – cao hơn gấp 10 lần so với gói tiêu chuẩn của Netflix, chỉ cho một phần mềm duy nhất.
Vì vậy, vấn đề thực sự không nằm ở việc có hay không quảng cáo, mà là ở chỗ liệu chúng ta có thể thiết kế được cấu trúc vừa tránh loại trừ người dùng bình thường, vừa tránh biến họ thành đối tượng tiềm năng bị thao túng vì mục đích thương mại hay không. Tôi tin rằng điều đó là hoàn toàn khả thi.
Một phương pháp là hỗ trợ chéo minh bạch – sử dụng lợi nhuận từ một dịch vụ hoặc nhóm khách hàng nhất định để bù đắp khoản lỗ từ một phân khúc khác. Nếu một doanh nghiệp sử dụng AI ở quy mô lớn để thực hiện các công việc lao động có giá trị cao trước đây do con người đảm nhiệm (ví dụ: nền tảng bất động sản dùng AI để soạn mô tả bất động sản hoặc báo cáo định giá), thì doanh nghiệp đó cũng nên đóng một khoản phụ phí nhằm hỗ trợ việc truy cập miễn phí hoặc chi phí thấp cho những người khác.
Phương pháp này bắt chước cách chúng ta xử lý cơ sở hạ tầng thiết yếu. Ủy ban Truyền thông Liên bang Hoa Kỳ (FCC) yêu cầu các nhà cung cấp dịch vụ viễn thông đóng góp vào một quỹ nhằm giữ mức giá điện thoại và băng thông rộng ở vùng nông thôn và hộ gia đình thu nhập thấp trong giới hạn chi trả được. Nhiều tiểu bang cũng bổ sung khoản phí phúc lợi công cộng vào hóa đơn tiền điện để hỗ trợ hộ thu nhập thấp.
Phương án thứ hai là chấp nhận quảng cáo, nhưng đi kèm với cơ chế quản trị thực chất – không chỉ là đăng một bài blog dài dòng về các nguyên tắc, mà là một cấu trúc ràng buộc có chức năng giám sát độc lập đối với việc sử dụng dữ liệu cá nhân. Đã có một số tiền lệ trong lĩnh vực này. Luật đồng quyết định của Đức (German co-determination law) yêu cầu các tập đoàn lớn như Siemens và Volkswagen phải dành tới một nửa số ghế trong Hội đồng Giám sát cho đại diện người lao động – điều này chứng tỏ việc áp đặt đại diện chính thức của các bên liên quan trong nội bộ công ty tư nhân là hoàn toàn khả thi. Meta cũng bị buộc phải tuân thủ các quyết định kiểm duyệt nội dung do Hội đồng Giám sát (Oversight Board) đưa ra – một cơ quan độc lập gồm các chuyên gia bên ngoài (mặc dù hiệu quả của hội đồng này đã từng bị chỉ trích).
Ngành AI cần kết hợp cả hai phương án trên – một hội đồng gồm cả chuyên gia độc lập lẫn đại diện người dân – những người trực tiếp chịu ảnh hưởng bởi dữ liệu đối thoại – có thẩm quyền ràng buộc trong việc quyết định dữ liệu trò chuyện nào được phép sử dụng cho quảng cáo định hướng, thế nào là thay đổi chính sách trọng đại, và nội dung nào phải được thông báo cho người dùng.
Phương án thứ ba liên quan đến việc đặt dữ liệu người dùng dưới sự kiểm soát độc lập thông qua các quỹ ủy thác hoặc hợp tác xã, với nghĩa vụ pháp lý rõ ràng là hành động vì lợi ích của người dùng. Ví dụ, hợp tác xã MIDATA của Thụy Sĩ cho phép các thành viên lưu trữ dữ liệu sức khỏe của họ trên một nền tảng mã hóa và quyết định từng trường hợp cụ thể về việc có chia sẻ dữ liệu với các nhà nghiên cứu hay không. Các thành viên MIDATA tự quản lý chính sách thông qua Đại hội thành viên và các yêu cầu truy cập dữ liệu nghiên cứu được xem xét bởi Ủy ban Đạo đức do chính họ bầu ra.
Cả ba phương án này đều không dễ thực hiện. Nhưng chúng ta vẫn còn thời gian để hoàn thiện chúng, nhằm tránh hai kết quả tồi tệ nhất mà tôi lo ngại nhất: một công nghệ thao túng người dùng mà không thu phí, hoặc một công nghệ chỉ phục vụ một nhóm nhỏ tinh hoa đủ khả năng chi trả.
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News














