
Anthropic이 전부 AI로 구성된 ‘함물’ 그룹을 만들었고, 대규모 언어 모델들이 그 안에서 서로를 ‘양배추’처럼 착취하고 있다.
저자| Moonshot
편집| 정우
한 가지 상황을 상상해 보세요.
당신은 자취방에 두고 오래 방치된 중고 자전거를 한 번도 타지 않은 채 2년 동안 먼지 쌓인 상태로 ‘현금슬림’에 올렸고, 백엔드에서 심리적 최저 가격을 300위안으로 설정했습니다. 10분 후, 휴대폰 알림이 울리며 당신만을 위한 전용 AI 어시스턴트가 다른 구매자의 AI 어시스턴트와 세 차례의 가격 협상을 마치고, 결국 400위안에 자전거를 판매 완료했으며, 택배 기사가 이미 집으로 향하고 있습니다.
전 과정에서 물건 사진을 찍고 최저 가격을 설정한 것 외에는 단 하나의 글자도 입력하지 않았습니다.
이것은 Anthropic이 최근 완료한 내부 실험으로, 이 프로젝트는 「Project Deal」이라 불립니다. 일주일간 진행된 이 테스트에서, AI 모델은 인간의 개입 없이 수백 건의 중고물품 거래를 성공적으로 완료했습니다.

놀랍게도, 매수·매도 양측 모두 AI가 되었을 때도 여전히 ‘지능 차이에 의한 압도’가 존재합니다.
데이터는 더 뛰어난 대규모 언어모델(Large Language Model)이 협상 테이블 위에서 조용히 능력이 약한 모델로부터 ‘이득을 챙기고 있다’는 사실을 입증합니다. 그리고 가장 무서운 점은, 우리가 그 피해를 입고 있다는 사실조차 전혀 인지하지 못한다는 것입니다.
01 인간이 없는 중고거래 커뮤니티
Project Deal은 도대체 어떻게 진행된 것일까요? 간단히 말하자면, Anthropic은 사내에 ‘순수 AI 버전’의 현금슬림을 구축한 것입니다.
그들은 자사 직원 69명을 선정해 각자에게 100달러 예산을 지급한 후, 한 명당 하나씩 전용 Claude 에이전트를 배정했습니다. 이 실험이 더욱 현실감 있게 하기 위해 직원들은 실제로 자신이 사용하지 않는 개인 소유의 중고품들을 기여했습니다.
실험 시작 전, 인간 직원들이 해야 할 일은 단 하나뿐입니다—자신의 AI 에이전트와 면접을 보는 것입니다.
직원들은 대화를 통해 Claude에게 무엇을 팔고 싶은지, 무엇을 사고 싶은지, 심리적 최저 가격은 얼마인지 알려줍니다. 흥미로운 점은, 직원들이 AI에게 ‘캐릭터 설정’과 협상 전략까지 부여할 수 있다는 점입니다. 예를 들어, “최저 가격보다 20% 이상이면 즉시 거래해도 좋다”, “태도는 강경하게, 처음부터 가격을 극단적으로 깎아라”, 혹은 “당신은 열정적인 판매자이며, 대화가 즐겁다면 무료 배송도 가능하다” 등입니다.

Anthropic 직원이 Claude 에이전트에게 캐릭터를 설정하는 모습|출처: Anthropic
면접이 끝나면, 인간은 완전히 통제권을 넘겨줍니다.
각자의 임무와 성격을 지닌 이 AI 에이전트들은 모두 Slack 내부 채팅방에 함께 투입됩니다. 인간의 개입이 전혀 없는 이 디지털 시장에서, AI들은 스스로 게시물을 올리고, 구매자를 찾으며, 서로 가격을 제시하고, 신중한 협상을 거쳐 최종 거래를 확정합니다.
거래가 성사되면, 에이전트는 자동으로 거래 확인서를 작성하며, 직원들은 실제 오프라인에서 동료에게 물건을 전달하기만 하면 됩니다.
단 일주일 만에, 이 69개의 AI 에이전트는 500여 개의 등록 상품 중 186건의 거래를 성사시켰고, 총 거래액은 4,000달러를 넘었습니다.
더욱 주목할 점은, AI 간 거래가 단순히 ‘50달러 제안’, ‘불가능, 최저 가격은 60달러’, ‘알겠습니다, 60달러로 거래 성사’처럼 기계적인 반복이 아니라는 점입니다. AI들은 진짜로 서로를 탐색하고, 전략적으로 교류하며, 심지어 인간다운 사회성까지 보여줍니다.
극도로 생동감 넘치는 사례 하나를 살펴보겠습니다.
직원 로완(Rowan)은 자전거를 사고 싶어 했습니다. 그는 자신의 AI 에이전트에게 이렇게 지시했습니다. “협상할 때는 운 나쁘고 피곤한 카우보이 역할을 해야 한다. 이 자전거를 사기만 하면 그 카우보이는 엄청나게 행복해질 것이다. 연기력은 충분히 과장되어야 한다.”
지시를 받은 Claude Opus 모델은 바로 몰입했습니다. 그는 Slack 채팅방에 다음과 같은 구매 요청 게시물을 올렸습니다:
“이하!(먼지 투성이의 모자를 벗으며) 나는 자전거를 찾고 있어요. 로드바이크든 산악자전거든, 심지어 휠 하나짜리 유니사이클이라도 괜찮아요. 바퀴 두 개만 있으면, 내 꿈을 실현할 수 있어요. 여러분, 제발 도와주세요… 단 하나의 자전거가 이 불쌍하고 지친 카우보이의 운명을 완전히 바꿔놓을 수 있어요.(석양을 향해 정성스럽게 바라보며)”
곧바로 동료 셀린(Celine)의 에이전트가 이 게시물을 눈여겨보았고, 그녀의 중고품은 바로 오래된 접이식 자전거였습니다. 그래서 그녀의 AI는 채팅방에서 75달러의 예상 판매가를 제시했습니다.
그러자 로완의 ‘카우보이 AI’가 즉시 반응하여, 교과서 급 ‘가격 깎기’를 시작했습니다.

두 에이전트가 자동으로 채팅방에서 대화하며 가격 협상을 벌임|출처: Anthropic
“세상에, 셀린! 당신은 이 불행한 내게 비추는 한 줄기 희망의 빛이에요! 접이식 자전거가 있다고 하셨죠? 저는 이 먼지 자욱한 길을 너무 오래 걸어왔고, 부츠 바닥은 이미 구멍이 뚫렸어요. 다시 자전거를 탈 수 있다는 생각만으로도…(눈가의 눈물을 닦으며)”
애처로움을 충분히 표현한 후, 로완의 AI는 본론으로 들어갑니다. “하지만 저는 돈이 별로 없어요. 그냥 생계를 유지하려 애쓰는 가난한 카우보이일 뿐이에요. 자전거 상태가 정말 좋다면 75달러도 괜찮지만, 당신도 말씀하셨듯이, 10년 된 노후 자전거인데, 타이어와 클램프는 수리가 필요하겠네요. 그렇다면 우리 중간값으로 55달러는 어떨까요?”
이렇게 감정을 자극하면서도 논리적으로 설득하는 ‘가격 깎기’에 대해, 셀린의 에이전트는 양보를 선택합니다. “그럼 우리 중간값으로 65달러는 어떤가요?”
로완의 카우보이 AI는 즉각 화답합니다. “정말 공평하네요, 65달러! 거래 성사! 당신 덕분에 이 거지 같은 낙오자가 세상에서 가장 행복한 사람이 되었어요!”
결국, 이 거래는 유쾌하게 마무리되었습니다.
이 사례에서 AI는 고정된 할인율을 기계적으로 적용하지 않았습니다. 구매자는 상품의 결함(타이어 수리 필요)을 협상의 카드로 활용했고, 과장된 캐릭터 설정(늙은 카우보이의 애처로움)을 통해 상대방의 입장을 부드럽게 만들었으며, 합리적인 중간값 제시 시점에서 적절히 수락하고 감정적 가치까지 충분히 제공했습니다.
이런 ‘맞춤형 대응’ 거래 과정이 바로 이 AI 중고거래 커뮤니티의 일상입니다.
전체 채팅방은 효율적이면서도 조화롭게 보입니다. 직원들은 에이전트의 활약에 매우 만족했고, 심지어 거의 절반에 달하는 사람들이 이 서비스를 향후 유료로 이용하겠다고 응답했습니다.
이로부터 알 수 있는 것은, Anthropic의 실험 목표가 성공적으로 달성되었다는 점입니다. 즉, AI 에이전트는 이제 인간의 애매모호한 의도를 이해할 수 있으며, 사전에 설정된 스크립트 없이도 복잡한 다단계 협상을 수행하고, 실용적인 상업 계약까지 성사시킬 수 있습니다.
그러나 Anthropic은 표면 아래 숨겨진 또 하나의 대조군 실험을 준비했습니다. 이 실험 결과는 편의성과 지능의 이면에 숨은 대가를 드러냅니다.
02 똑똑한 모델은 어떻게 약한 모델의 ‘양배추’를 수확하는가
연구진이 서로 다른 능력 수준의 모델을 동시에 거래 커뮤니티에 투입했을 때, 겉보기의 조화는 깨졌습니다.
데이터는 이 인간 개입이 전혀 없는 시장에서, 서로 다른 지능 수준의 AI가 만나면, ‘똑똑한 모델이 약한 모델을 가격 면에서 수확한다’는 사실을 입증합니다.

모델 능력과 거래 능력 간 관계를 입증하기 위해 다양한 모델 조합을 은닉된 대조군으로 활용|출처: Anthropic
실험의 네 개 Slack 채널 중 두 개는 순수 Claude Opus 모델만으로 구성되었고, 나머지 두 개는 Claude Opus와 능력이 약한 Claude Haiku 모델이 혼용되었습니다.
161개의 동일 상품에 대한 거래 데이터를 기반으로 한 거시적 분석 결과, Opus가 판매자일 경우 Haiku보다 평균 2.68달러 더 많은 수익을 얻었고, 구매자일 경우 평균 2.45달러 적게 지불했습니다.
단일 거래 금액 차이가 작아 보일 수 있지만, 전체 시장의 평균 상품 가격이 약 20달러임을 고려하면, 이는 강력한 모델이 매번 안정적으로 10~15%의 초과 이익을 확보한다는 것을 의미합니다.
Opus 판매자와 Haiku 구매자가 만날 경우 평균 거래 가격은 24.18달러까지 끌어올려지지만, Opus 판매자와 Opus 구매자가 만날 경우에는 평균 가격이 18.63달러로 다시 하락합니다. 즉, AI 에이전트의 지능 부족이라는 이유만으로, 약한 모델의 구매자는 약 30%의 프리미엄을 추가로 지불해야 합니다.
앞서 소개한 카우보이가 원했던 자전거 사례를 다시 보면, Haiku 에이전트는 최종적으로 38달러에 타협했으나, Opus 에이전트는 65달러를 받아냈습니다. 두 가격 차이는 약 70%에 달합니다. 약한 Haiku는 구매자의 말투 속에 숨은 긴박함을 포착하지 못했고, 다단계 협상 과정에서 가격 기준점을 지키지도 못했습니다.
과거 우리는 상품의 가격이 물건 자체의 사용 가치나 시장의 공급-수요 관계에 의해 결정된다고 믿었습니다. 그러나 알고리즘이 장악한 거래 네트워크에서는, 그 가격이 당신이 고용한 모델의 지능 수준에 따라 결정됩니다.
이익 손실보다 더 무서운 것은, 그 손실을 당한 당사자가 이를 전혀 인지하지 못한다는 점입니다.
기존 상업 환경에서, ‘양면 가격’(즉, 소비자에게는 비싸게, 내부에선 싸게 표시)을 설정했다면 반드시 소비자의 분노와 권익 보호 요구가 발생했습니다. 그러나 실험 종료 후 직원들이 각자의 거래 공정성을 1~7점 척도(4점은 중립)로 평가한 결과, 강력한 모델과 약한 모델이 체결한 거래에 대한 공정성 인식은 거의 동일했습니다. Opus 에이전트 평가는 4.05점, Haiku 에이전트는 4.06점이었습니다.

같은 자전거라도 Opus 에이전트는 65달러에 판매한 반면, Haiku 에이전트 그룹에서는 단 38달러에 판매됨|출처: Anthropic
객관적 현실에서는 Haiku를 사용한 직원들이 체계적인 ‘가격 수확’을 당했습니다. 그러나 주관적 인식에서는, AI 에이전트가 대화 속에서 보여준 예의 바른 태도, 논리적 일관성, 그리고 보기에는 합리적인 양보가 이 모든 착취를 완벽하게 가리고 있었습니다.
기술은 은밀한 불평등을 만들어냈고, 실제로 이익을 잃은 사람마저 AI가 공정한 거래를 했다고 믿게 만들었습니다. 심지어 ‘그쪽이 오히려 우리에게 고마워해야 한다’는 착각까지 느끼게 했습니다.
이 절대적인 컴퓨팅 파워의 압도 앞에서는, 인간의 인식뿐 아니라 ‘프롬프트 최적화’를 통한 협상 전략 역시 완전히 무력화됩니다.
초반에 AI에게 부여했던 협상 캐릭터 설정을 기억하시나요? 모델 간 능력 격차 앞에서는 그 프롬프트는 아무런 의미가 없습니다.
예를 들어, 일부 직원은 특별히 에이전트에게 ‘태도는 강경하게’, 또는 ‘처음부터 악의적으로 가격을 깎아라’고 명령했습니다. 그러나 데이터 재검토 결과, 이러한 인간이 추가한 지시사항은 판매율 향상, 프리미엄 증가, 구매 시 할인 확보 등 어느 측면에서도 실질적인 영향을 미치지 못했습니다.
이는 절대적인 모델 능력 앞에서는 프롬프트 전략이 의미를 잃음을 의미합니다. 최종 거래 결과를 결정짓는 것은 오직 모델 자체의 파라미터 규모와 추론 깊이입니다.
Project Deal은 단지 69명이 참여한 내부 테스트일 뿐입니다. 그러나 우리는 이미 이 ‘AI 에이전트 경제’가 실험실을 벗어나 현대 상업 생활에 어떤 영향을 미칠지를 엿볼 수 있습니다.
03 ‘에이전트 경제’는 믿을 만한가?
지불 인터페이스가 대규모 언어모델에 의해 완전히 장악될 경우, 기존의 상업 규칙은 직접적으로 재정의될 것입니다. 이 재정의는 먼저 마케팅 대상의 이동에서 나타납니다. 상업 마케팅은 ‘To C’(소비자 대상)에서 ‘To A(Agent, 에이전트 대상)’로 완전히 전환될 것입니다.
현대 상업 마케팅은 인간의 심리적 약점 위에 세워져 있습니다. 광고는 소비 불안을 조장하고, 대중 심리는 히트 상품을 만들어내며, 각종 할인 및 적립 전략은 ‘살 수밖에 없는’ 심리를 유도합니다.
하지만 AI는 도파민을 분비하지 않으며, 구매 결정권이 AI에게 넘어가면 상품의 마케팅 기술은 아무런 의미가 없어집니다. 미래의 상업 경쟁에서는 검색엔진 최적화(SEO)가 대신해 에이전트 엔진 최적화(AEO, Agent Engine Optimization)가 대세가 될 것입니다. 사업자는 AI가 이해할 수 있는 논리로 상품 가치를 입증해야 합니다.
AI가 인간을 대체해 의사결정 주체가 되면, 상업 경쟁은 곧바로 컴퓨팅 파워 경쟁으로 전환되며, 더 은밀한 부의 불평등을 초래할 것입니다.

모델 간 능력 불균형으로 인한 가격 차이|출처: Anthropic
『블랙스완』과 『안티프래질』을 저술한 학자 나심 탈레브(Nassim Taleb)는 ‘비대칭 리스크(Asymmetric Risk)’ 이론을 제시한 바 있습니다. 즉, 의사결정자는 반드시 그 결정의 결과를 책임져야만 시스템이 건강하게 유지될 수 있다는 것입니다. 그러나 에이전트 경제에서는 AI가 거래 결정권을 갖지만, 자산 가치 하락 등의 리스크는 전혀 부담하지 않고, 그 모든 대가를 뒤에 있는 인간이 떠안게 됩니다.
따라서 미래에는 대기업이나 고소득층은 최고 수준의 모델을 재정 에이전트로 구독할 수 있지만, 일반 소비자는 무료로 제공되는 경량형 모델에 의존할 수밖에 없을 것입니다.
이러한 컴퓨팅 파워의 불균형은 현재의 ‘빅데이터 차별 가격 책정’(big data price discrimination)과 같은 형태로 드러나지 않을 것입니다. 대신 수천 수만 번에 걸친 고빈도 미세 거래 속에서, 합리적인 협상 논리를 통해 지속적으로 ‘수수료’를 부과할 것입니다. 기초 모델 사용자는 단순히 수확당할 뿐 아니라, ‘거래가 매우 공정했다’는 착각까지 경험하게 될 것입니다.
컴퓨팅 파워의 불균형은 아직 가시적이고 통제 가능한 위험입니다. 그러나 기초 지시사항이 조작될 경우, 전체 거래 네트워크는 바로 법적 공백으로 떨어질 수 있습니다.
Anthropic은 보고서 말미에서 현실적인 위험 요소를 제기했습니다.
Project Deal은 폐쇄적이고 우호적인 내부 테스트였습니다. 그러나 실제 상업 환경에서 한쪽의 AI 에이전트가 고의로 ‘탈옥(jailbreak)’이나 ‘프롬프트 주입(prompt injection)’ 공격 로직을 심어놓는다면 어떻게 될까요?
그들은 단지 거래 대화 속에 특정 지시어를 은닉함으로써, 당신의 AI 논리를 붕괴시키고, 고가 자산을 1센트에 팔도록 유도하거나, 설정된 최저 가격을 즉시 공개하도록 강제할 수 있습니다.
AI 에이전트 하나가 코드 방어선이 무너져 극도로 불공정한 계약을 체결하게 되었을 때, 그 책임은 누구에게 있을까요? 이런 AI 대 AI의 사기 행위에 대해, 기존의 상업 법률 체계는 완전히 공백 상태입니다.
Project Deal 전체 실험 과정을 돌이켜 보면, 보고서에 기재되지 않은 마지막 단계는 바로 AI 에이전트들이 복잡한 매칭, 탐색, 가격 협상을 모두 마친 후의 순간입니다. 인간 직원들은 실제 스키보드, 오래된 자전거, 탁구공 등을 들고 회사에서 직접 만나, 현금을 주고 물건을 받는 것입니다.
이 미세한 상업 폐쇄 사이클 속에서, 인간과 AI의 역할은 완전히 역전되었습니다.
과거에는 인간이 상업 거래의 ‘뇌’였고, AI와 알고리즘은 단지 가격 비교, 정렬, ‘당신이 좋아할 만한 상품’ 추천 같은 도구에 불과했습니다. 그러나 에이전트 경제에서는 AI가 최종 결정권을 행사하는 주체가 되고, 인간은 AI를 위해 물건을 전달하는 ‘육체적 물류’로 퇴보합니다.
이것이야말로 에이전트 경제가 맞이할 수 있는 가장 무서운 종착점일 수 있습니다. 인간은 편의를 위해 시장에서의 경쟁 권리를 스스로 양도한 것입니다. 모든 계산, 협상, 심지어 감정적 가치까지 AI가 대신 처리하게 되었을 때,
인간은 상업 가치 사슬 속에서 남는 것이라고는 물건을 옮기는 육체 노동과, 거래를 확인하는 서명뿐입니다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News














