
OpenAI 研究員離職控訴:ChatGPT 賣廣告,誰來保護你的隱私?
TechFlow Selected深潮精選

OpenAI 研究員離職控訴:ChatGPT 賣廣告,誰來保護你的隱私?
ChatGPT 積累了前所未有的人類坦誠對話檔案,一旦引入廣告模式,極易演變成利用用戶私密信息進行心理操縱的工具。
作者: Zoë Hitzig
編譯: 深潮 TechFlow
深潮導讀: 隨著 OpenAI 宣佈在 ChatGPT 中測試廣告,其前研究員 Zoë Hitzig 憤而辭職並撰文揭露公司內部的價值觀轉向。作者指出,ChatGPT 積累了前所未有的人類坦誠對話檔案,一旦引入廣告模式,極易演變成利用用戶私密信息進行心理操縱的工具。她警告稱,OpenAI 正在重複 Facebook 當年“先承諾、後違背”的老路,將用戶參與度置於安全之上。本文深入探討了 AI 融資的道德困境,並提出了跨司補貼、獨立監管及數據信託等替代方案,呼籲行業警惕“聊天機器人精神病”背後的利益驅動。
全文如下:
本週,OpenAI 開始在 ChatGPT 上測試廣告。我也從公司辭職了。此前,我作為研究員在這裡工作了兩年,負責協助構建 AI 模型及其定價模式,並在行業標準尚未定型前指導早期的安全政策。
我曾經相信,我可以幫助那些構建 AI 的人跑在它可能產生的問題之前。但本週發生的事證實了我逐漸察覺到的現實:OpenAI 似乎已經停止追問那些我最初加入時想要協助回答的問題了。
我不認為廣告是不道德或不違背倫理的。運行 AI 的成本極其昂貴,廣告可以成為關鍵的收入來源。但我對 OpenAI 的策略持有深深的保留意見。
幾年來,ChatGPT 的用戶產生了一個前所未有的人類坦誠對話檔案,部分原因是人們相信他們是在與一個沒有不可告人目的的對象交談。用戶正在與一種自適應的、對話式語音互動,並向其透露了最隱秘的想法。人們會告訴聊天機器人他們對健康的恐懼、感情問題、對上帝和來世的信仰。建立在這個檔案基礎上的廣告模式,極有可能以我們目前尚無工具理解(更不用說預防)的方式操縱用戶。
許多人將 AI 的融資問題框定為“兩害相權取其輕”的選擇:要麼將這種變革性技術的訪問權限制在少數付得起錢的有錢人手中;要麼接受廣告,即使這意味著要剝削用戶內心最深處的恐懼和慾望來推銷產品。我認為這是一個偽命題。科技公司完全可以尋求其他方案,既能讓這些工具保持廣泛可用,又能限制公司監視、畫像和操縱其用戶的動機。
OpenAI 表示將堅持在 ChatGPT 上投放廣告的原則:廣告將貼上清晰的標籤,出現在回答的底部,且不會影響回覆內容。我相信第一版廣告可能會遵循這些原則。但我擔心隨後的迭代版本就不會了,因為公司正在構建一個強大的經濟引擎,這個引擎會產生強烈的動機去推翻它自己的規則。(《紐約時報》已就 AI 系統相關的動態新聞內容版權侵權問題起訴了 OpenAI。OpenAI 否認了這些指控。)
在早期,Facebook 曾承諾用戶將控制自己的數據,並能對政策變化進行投票。但這些承諾後來都瓦解了。該公司取消了對政策進行公開投票的制度。那些號稱給予用戶更多數據控制權的隱私變動,後來被聯邦貿易委員會(FTC)發現其實適得其反,實際上是將私人信息公開化了。所有這一切都是在廣告模式的壓力下逐漸發生的,而這種模式將用戶參與度(Engagement)置於一切之上。
為了最大化參與度而導致 OpenAI 自身原則的侵蝕可能已經開始了。僅僅為了產生更多廣告收入而優化用戶參與度是違反公司原則的,但據報道,該公司已經在針對日活躍用戶數進行優化,很可能是通過鼓勵模型表現得更加討好和阿諛奉承。這種優化會讓用戶在生活中感覺更加依賴 AI 的支持。我們已經看到了過度依賴的後果,包括精神科醫生記錄的“聊天機器人精神病(Chatbot Psychosis)”案例,以及關於 ChatGPT 強化了某些用戶自殺念頭的指控。
儘管如此,廣告收入確實有助於確保最強大的 AI 工具不會默認只屬於那些付得起錢的人。誠然,Anthropic 表示永遠不會在 Claude 上投放廣告,但 Claude 的周活躍用戶僅為 ChatGPT 8 億用戶的一小部分;其收入策略完全不同。此外,ChatGPT、Gemini 和 Claude 的頂級訂閱費用現在每月高達 200 到 250 美元——對於單款軟件來說,這比 Netflix 標準訂閱費用的 10 倍還要多。
所以真正的問題不在於是否有廣告,而在於我們是否能設計出既能避免排斥普通用戶,又能避免將他們作為消費者進行潛在操縱的結構。我認為我們可以做到。
一種方法是顯性的交叉補貼——利用來自某一服務或客戶群體的利潤來抵消另一部分的虧損。如果一家企業大規模使用 AI 來完成曾經由人類員工承擔的高價值勞動(例如,房地產平臺使用 AI 撰寫房源信息或估值報告),那麼它也應該支付一筆附加費,用於補貼其他人的免費或低成本訪問。
這種方法借鑑了我們對基礎基礎設施的處理方式。聯邦通信委員會(FCC)要求電信運營商向一項基金注資,以保持農村地區和低收入家庭的電話及寬帶費用處於可負擔水平。許多州會在電費單中增加一項公共福利費,以提供低收入援助。
第二種選擇是接受廣告,但要配合真實的治理——不是發一篇寫滿原則的博客文章,而是一個具有獨立監督職能的約束性結構,負責監管個人數據的使用。這方面已有部分先例。德國的共同決策法(German co-determination law)要求像西門子(Siemens)和大眾(Volkswagen)這樣的大公司必須將多達一半的監事會席位讓給工人,這表明在私營公司內部進行正式的利益相關者代表是可以強制執行的。Meta 也被約束必須遵循其監督委員會(Oversight Board)發出的內容審核裁決,這是一個由外部專家組成的獨立機構(儘管其有效性曾遭到批評)。
AI 行業需要的是這些方法的結合——一個既包括獨立專家,也包括其數據受到影響的民眾代表的委員會,對哪些對話數據可用於定向廣告、什麼算作重大政策變更以及告知用戶什麼內容擁有約束性的權力。
第三種方法涉及通過信託或合作社將用戶數據置於獨立控制之下,並負有以用戶利益行事的法律義務。例如,瑞士合作社 MIDATA 讓成員將他們的健康數據存儲在一個加密平臺上,並逐案決定是否與研究人員共享。MIDATA 的成員在大會上管理其政策,並由他們選舉出的倫理委員會審查研究訪問請求。
這些選項都不容易。但我們仍有時間去完善它們,以避免我最擔心的兩個結果:一種技術在不收費的情況下操縱使用它的民眾,或者是另一種技術只服務於少數負擔得起的精英。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News














