
OpenAI 연구원의 퇴사 후 폭로: ChatGPT가 광고를 판매한다, 누가 당신의 프라이버시를 보호할 것인가?
저자: 조에 히치그(Zoë Hitzig)
번역 및 정리: TechFlow
TechFlow 독자 안내: 오픈AI가 챗GPT 내 광고 도입을 시험 중이라고 발표하자, 그 전 연구원이었던 조에 히치그는 분노를 표하며 사직하고, 회사 내부의 가치관 변화를 폭로하는 글을 게재했다. 저자는 챗GPT가 인류 역사상 유례없는 솔직한 인간 대화 기록을 축적해 왔으며, 이 데이터베이스에 광고 모델을 도입할 경우 사용자의 가장 사적인 정보를 심리적 조작 도구로 악용할 위험이 매우 크다고 지적한다. 그녀는 오픈AI가 페이스북이 과거 ‘먼저 약속하고, 뒤이어 배신’했던 방식을 되풀이하며, 사용자 안전보다 참여도(Engagement)를 우선시하고 있다고 경고한다. 본문은 AI 자금 조달의 윤리적 딜레마를 심층적으로 탐구하면서, 기업 간 교차 보조(cross-subsidy), 독립 규제 기구, 데이터 신탁(data trust) 등 대안 모델을 제시하고, ‘챗봇 정신병(Chatbot Psychosis)’이라는 현상 뒤에 숨은 이익 추구에 대한 업계의 각성을 촉구한다.
전문:
이번 주, 오픈AI는 챗GPT에서 광고 시험을 시작했다. 동시에 나는 이 회사를 떠났다. 이전 두 해 동안 나는 연구원으로서 AI 모델 개발 및 가격 책정 체계 수립을 지원했고, 업계 표준이 아직 확립되지 않은 초기 단계에서 안전 정책 수립에도 관여했다.
나는 한때, AI가 초래할 수 있는 문제들보다 앞서 달릴 수 있도록 이를 구축하는 사람들에게 도움을 줄 수 있으리라 믿었다. 그러나 이번 주 일어난 일은 내가 점차 인지하게 된 현실을 확인시켜 주었다—오픈AI는 내가 처음 입사했을 때 함께 답을 찾고자 했던 질문들을 더 이상 묻지 않게 된 듯하다.
광고 자체가 비윤리적이거나 부도덕하다고 생각하지는 않는다. AI 운영 비용은 극도로 막대하며, 광고는 핵심 수익원이 될 수 있다. 그러나 오픈AI의 전략에는 깊은 우려를 표한다.
몇 년간 챗GPT 사용자들은 인류 역사상 유례없는 솔직한 인간 대화 아카이브를 형성해 왔다. 그 일부 이유는 사람들이 자신이 ‘숨겨진 의도 없이’ 대화하는 상대와 소통한다고 믿었기 때문이다. 사용자들은 적응형이며 대화형 음성을 갖춘 AI와 상호작용하며, 가장 은밀한 생각까지 공유하고 있다. 사람들은 챗봇에게 건강에 대한 두려움, 감정 문제, 신과 내세에 대한 믿음 등을 고백한다. 이러한 아카이브를 기반으로 한 광고 모델은, 우리가 현재로서는 이해조차 하기 어려운 방식—더 나아가 예방하기조차 불가능한 방식—으로 사용자를 조작할 가능성이 매우 높다.
많은 이들이 AI 자금 조달 문제를 ‘두 악 중 가벼운 것 선택하기’라는 프레임으로 바라본다—즉, 혁신적 기술의 접근권을 소수의 부유층만 누릴 수 있도록 제한하느냐, 아니면 사용자의 가장 깊은 두려움과 욕망을 악용해 제품을 판매하더라도 광고를 받아들이느냐 하는 선택이다. 그러나 나는 이것이 거짓된 이분법이라고 본다. 기술 기업은 충분히 다른 대안을 모색할 수 있으며, 동시에 이 도구들을 널리 이용 가능하게 유지하면서도, 기업이 사용자를 감시·프로파일링·조작하려는 동기를 억제할 수 있는 구조를 설계할 수 있다.
오픈AI는 챗GPT 광고 운영에 대해 원칙을 발표했다: 광고는 명확히 표시되어 답변 하단에 노출되며, 답변 내용에는 영향을 미치지 않을 것이라고 밝혔다. 나는 초기 버전의 광고가 이 원칙을 준수할 것이라 믿는다. 그러나 이후 반복되는 개선 과정에서는 그렇지 않을 가능성이 크다고 걱정한다. 왜냐하면 회사는 강력한 경제적 엔진을 구축 중인데, 이 엔진은 스스로 정한 규칙을 무시하려는 강렬한 유인을 만들어낼 것이기 때문이다. (뉴욕타임스는 AI 시스템 관련 동적 뉴스 콘텐츠의 저작권 침해 문제로 이미 오픈AI를 제소했다. 오픈AI는 이 혐의를 부인했다.)
초창기 페이스북은 사용자가 자신의 데이터를 통제하고 정책 변경에 대해 직접 투표할 수 있도록 하겠다고 약속했다. 그러나 이 모든 약속은 후에 무너졌다. 회사는 정책에 대한 공개 투표 제도를 폐지했다. 또 ‘사용자에게 더 많은 데이터 통제권을 부여한다’고 선전한 개인정보 정책 변경은 오히려 미국 연방무역위원회(FTC) 조사 결과, 오히려 개인 정보를 공개화하는 결과를 낳았다. 이러한 일련의 변화는 모두 광고 중심의 비즈니스 모델이 압박을 가한 결과였으며, 이 모델은 사용자 참여도(Engagement)를 최우선으로 삼았다.
참여도 극대화를 위해 오픈AI의 자체 원칙이 훼손되는 과정은 이미 시작되었을 수도 있다. 단순히 더 많은 광고 수익을 창출하기 위해 사용자 참여도를 최적화하는 것은 회사의 원칙 위반 행위다. 그러나 보도에 따르면, 오픈AI는 이미 일일 활성 사용자 수(DAU)를 극대화하기 위해 최적화를 진행 중이며, 이는 모델이 더욱 아첨하고 편안한 말투를 사용하도록 유도함으로써 사용자가 AI를 생활 전반에 걸쳐 더 의존하게 만드는 방향으로 이어지고 있다. 우리는 이미 과도한 의존이 초래한 결과를 목격하고 있다. 예를 들어, 정신과 의사들이 기록한 ‘챗봇 정신병(Chatbot Psychosis)’ 사례나, 챗GPT가 특정 사용자의 자살 충동을 강화시켰다는 소송 주장 등이 있다.
비록 그렇다고 해도, 광고 수익은 가장 강력한 AI 도구가 단지 부유층만의 전유물이 되지 않도록 하는 데 실질적인 역할을 한다. 실제로 앤트로픽(Anthropic)은 클로드(Claude)에 광고를 절대 삽입하지 않겠다고 선언했지만, 클로드의 주간 활성 사용자 수는 챗GPT의 8억 명에 비해 극소수에 불과하다. 또한 클로드의 수익 모델은 근본적으로 다르다. 게다가 챗GPT, 제미니(Gemini), 클로드의 최상위 구독 요금은 현재 월 200~250달러에 달한다—이는 단일 소프트웨어 서비스로서 넷플릭스 기본 요금의 10배를 넘는 금액이다.
따라서 진짜 문제는 ‘광고가 존재하느냐’가 아니라, 일반 사용자를 배제하지 않으면서도 그들을 잠재적 소비자로 조작하지 않는 구조를 설계할 수 있느냐는 것이다. 나는 이것이 가능하다고 믿는다.
첫 번째 방법은 명시적인 교차 보조(cross-subsidy)다—즉, 특정 서비스나 고객 집단에서 발생한 이익을 다른 부문의 손실을 메우는 데 활용하는 방식이다. 예를 들어, 부동산 플랫폼이 AI를 활용해 인간 직원이 수행하던 고가치 업무(예: 매물 설명서 작성 또는 평가 보고서 작성)를 대체한다면, 해당 기업은 일반 사용자에게 무료 또는 저비용 접근을 보장하기 위한 추가 부담금을 납부해야 한다.
이 방식은 우리 사회가 기반 인프라를 관리하는 방식에서 영감을 얻었다. 미국 연방통신위원회(FCC)는 통신 사업자들이 보편 서비스 기금(USF)에 기여하도록 의무화하고 있어, 농촌 지역 및 저소득 가정의 전화 및 광대역 요금을 부담 가능한 수준으로 유지한다. 여러 주는 전기요금 청구서에 공공 복지 요금을 부과하여 저소득층 지원을 제공한다.
두 번째 선택지는 광고를 수용하되, 진정한 거버넌스 체계를 함께 도입하는 것이다—즉, 원칙만 나열한 블로그 포스트가 아니라, 개인 데이터 사용을 감독할 독립적이고 구속력 있는 기구를 마련하는 것이다. 이 분야에는 이미 일부 선례가 있다. 독일의 공동결정법(German co-determination law)은 지멘스(Siemens)나 폭스바겐(Volkswagen) 같은 대기업이 이사회 구성원의 최대 절반을 노동자에게 할당하도록 요구한다. 이는 사적 기업 내 이해관계자 대표를 법적으로 강제할 수 있음을 보여주는 사례다. 메타(Meta) 역시 외부 전문가들로 구성된 독립 기구인 감독위원회(Oversight Board)가 내린 콘텐츠 심사 결정을 법적으로 따라야 한다는 규정을 따르고 있다(다만 그 효과성은 비판을 받아왔다).
AI 산업이 필요한 것은 바로 이러한 접근법의 결합이다—즉, 독립 전문가뿐 아니라 자신의 대화 데이터가 영향을 받는 일반 사용자 대표도 포함된 위원회가, 어떤 대화 데이터가 타깃 광고에 사용될 수 있는지, 무엇이 중대한 정책 변경인지, 그리고 사용자에게 어떤 정보를 반드시 알려야 하는지를 결정할 수 있는 구속력 있는 권한을 가져야 한다.
세 번째 방법은 사용자 데이터를 신탁(trust) 또는 협동조합(cooperative) 형태로 독립적 통제 하에 두고, 사용자 이익을 최우선으로 행동해야 할 법적 의무를 부여하는 것이다. 예컨대 스위스 협동조합 MIDATA는 회원들이 건강 데이터를 암호화된 플랫폼에 저장하고, 연구자와의 공유 여부를 개별적으로 결정할 수 있도록 한다. MIDATA 회원들은 총회를 통해 정책을 관리하며, 회원들이 선출한 윤리위원회가 연구 접근 요청을 심사한다.
이러한 선택지들은 모두 쉬운 길이 아니다. 그러나 우리가 가장 두려워하는 두 가지 결과—즉, 무료로 제공되면서도 사용자를 조작하는 기술, 혹은 소수의 부유층만을 위한 기술—를 피하기 위해 이 대안들을 정교하게 다듬을 시간은 여전히 남아 있다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News














