
지푸, 월즈 다크사이드, 샤오미가 한자리에 모인 원탁회의: 대규모 언어 모델(Large Language Model)이 비로소 실무에 투입되기 시작했지만, 여전히 계산 능력(컴퓨팅 파워)이 가장 큰 병목 현상으로 남아 있다.
저자: 천쥔다
지둥시(智东西) 보도에 따르면, 3월 27일 중관춘 포럼에서 지푸(智谱) CEO 장펑(张鹏), 월지안몐(月之暗面) CEO 양즈린(杨植麟, 사회 진행), 샤오미(小米) MiMo 대규모 언어모델 담당자 로푸리(罗福莉), 우원신궁(无问芯穹) CEO 샤리슈에(夏立雪), 홍콩대 조교수 황차오(黄超)가 희귀하게 한 무대에 올라, 오픈소스 대규모 언어모델과 에이전트의 미래 방향성에 관한 심층 대화를 진행했다.
이 대화는 현재 가장 주목받고 있는 OpenClaw를 출발점으로 삼았으며, 패널들은 모두 에이전트가 대규모 언어모델을 진정으로 ‘일하게’ 만들었다는 데 의견을 같이했다. OpenClaw는 대규모 모델의 능력 범위를 확장하지만, 동시에 모델에 더 높은 요구 사항을 제기한다. 지푸는 장기 계획 및 자기 디버깅 등 능력을 연구 중이며, 로푸리 팀은 아키텍처 혁신을 통해 비용을 낮추고 속도를 높이며, 나아가 모델의 자율 진화까지 실현하는 데 초점을 맞추고 있다.
인프라 역시 에이전트의 속도에 부응해야 한다. 샤리슈에는 현재의 컴퓨팅 파워 시스템과 소프트웨어 아키텍처가 여전히 인간을 위한 것이지, 에이전트를 위한 것이 아니라고 지적했다. 이는 사실상 인간의 조작 능력이 에이전트의 잠재력을 제한하고 있음을 의미한다. 따라서 우리는 ‘Agentic Infra’를 구축해야 한다.
여러 패널은 개방형 생태계(오픈소스)가 대규모 언어모델과 에이전트 발전의 핵심 동력 중 하나라고 보았다. 홍콩대 조교수 황차오는, 오픈소스 생태계의 번영이 에이전트를 단순한 ‘장난감’ 수준에서 진정한 ‘근로자’로 전환시키는 관건이라고 강조했다. 오직 커뮤니티 공동 건설을 통해서만 소프트웨어, 데이터, 기술 전반을 에이전트 원생(Native) 형태로 전환할 수 있으며, 궁극적으로 지속 가능한 글로벌 AI 생태계를 형성할 수 있다고 말했다.
그 외에도 패널들은 대규모 언어모델 가격 인상, 토큰 사용량 폭증, 향후 12개월간 AI 분야의 핵심 키워드 등 다양한 주제에 대해 논의했다. 다음은 이 원탁 토론의 핵심 견해이다:
1. 장펑: 모델 규모가 커짐에 따라 추론 비용도 상응하여 증가한다. 최근 지푸의 가격 인상 전략은 사실 정상적인 상업적 가치로의 복귀이며, 장기적인 저가 경쟁은 업계 발전에 해롭다.
2. 장펑: 에이전트 등 신기술의 폭발적 성장으로 토큰 사용량이 10배 증가했으나, 실제 수요는 100배 증가했을 가능성이 있으며, 아직 충족되지 못한 수요가 막대하므로, 향후 12개월 동안 컴퓨팅 파워가 여전히 핵심 과제이다.
3. 로푸리: 베이스 대규모 언어모델 공급업체의 관점에서 보면, OpenClaw는 기본 대규모 언어모델의 하한선을 보장하면서 동시에 상한선을 끌어올렸다. 중국산 오픈소스 모델 + OpenClaw의 작업 완료도는 이미 클로드(Claude) 수준에 매우 근접했다.
4. 로푸리: 딥시크(DeepSeek)는 국내 대규모 언어모델 업체들에게 용기와 자신감을 불어넣었다. 일부 일견 ‘효율성을 위해 타협한’ 모델 구조 혁신이 진정한 변화를 촉발했으며, 이는 고정된 컴퓨팅 파워 조건 하에서 최고 수준의 지능을 발휘할 수 있게 했다.
5. 로푸리: 향후 1년간 AGI 발전 과정에서 가장 중요한 일은 ‘자율 진화(Self-evolution)’이다. 자율 진화는 대규모 언어모델이 최정상급 과학자처럼 탐구할 수 있도록 해주며, ‘새로운 것을 창조’할 수 있는 유일한 영역이다. 샤오미는 이미 클로드 코드(Claude Code) + 최정상급 모델을 활용해 연구 효율을 10배 향상시켰다.
6. 샤리슈에: AGI 시대가 도래하면 인프라 자체도 에이전트가 되어야 하며, 전체 인프라를 자율적으로 관리하고, AI 고객의 요구에 따라 인프라를 반복적으로 개선·진화시켜야 한다.
7. 샤리슈에: OpenClaw는 토큰 사용량을 폭발적으로 촉발시켰다. 오늘날의 토큰 소비 속도는, 과거 3G 시대 초기 스마트폰 데이터 트래픽이 시작될 때 매달 100MB 제한이 있었던 시절의 느낌과 유사하다.
8. 황차오: 향후 많은 소프트웨어는 인간을 대상으로 하지 않게 될 것이며, 소프트웨어, 데이터, 기술 전반이 모두 에이전트-네이티브(Agent-Native) 형태로 재편될 것이다. 인간은 앞으로 단지 ‘자신을 기쁘게 하는 GUI’만 사용하게 될지도 모른다.
다음은 이 원탁 토론의 전체 실록이다:
01. OpenClaw는 ‘비계(scaffold)’이며, 대규모 언어모델의 토큰 소비는 여전히 3G 시대 수준
양즈린: 오늘 이렇게 위엄 있는 패널들을 초청하게 되어 영광입니다. 패널 여러분은 모델 계층, 컴퓨팅 파워 계층, 에이전트 계층에 걸쳐 계십니다. 오늘의 주요 키워드는 ‘오픈소스’와 ‘에이전트’입니다.
첫 번째 질문은 현재 가장 인기 있는 OpenClaw에 관한 것입니다. 여러분은 일상적으로 OpenClaw 또는 유사 제품을 어떻게 사용하시며, 그중 어떤 점이 가장 상상력이 풍부하거나 인상 깊었습니까? 기술적 관점에서 오늘날 OpenClaw 및 관련 에이전트의 진화를 어떻게 보십니까?

장펑: 저는 꽤 오래전부터 스스로 OpenClaw를 사용해 왔습니다. 당시에는 아직 Clawbot이라 불렸죠. 프로그래머 출신이라 직접 이것저것 만져보는 데 익숙하기도 하고, 이런 것들을 다루는 데 개인적인 체험이 있기도 합니다.
제가 OpenClaw에서 가장 큰 돌파구, 혹은 신선함을 느낀 점은, 이제 더 이상 프로그래머나 극단적 기술 애호가들만의 전유물이 아니라는 점입니다. 일반인들도 비교적 쉽게 최정상급 모델의 능력을 활용할 수 있게 되었으며, 특히 프로그래밍 및 에이전트 관련 능력에서 그렇습니다.
그래서 지금까지 제가 사람들과 교류할 때, 저는 OpenClaw를 ‘비계(scaffold)’라고 부르는 것을 선호합니다. 이는 모델 기반 위에 단단하고 편리하며 동시에 유연한 비계를 제공함으로써, 다양한 하위 모델이 제공하는 신기한 기능을 자신의 의도에 따라 자유롭게 활용할 수 있는 가능성을 열어줍니다.
예전에는 아이디어가 코드 작성이 어렵거나 다른 관련 기술을 익히지 못해 제한되곤 했습니다. 그러나 이제 OpenClaw 덕분에 아주 간단한 대화만으로도 이를 실현할 수 있게 되었습니다.
OpenClaw는 저에게 매우 강렬한 충격을 주었고, 이 일을 다시금 새롭게 인식하게 만들었습니다.

샤리슈에: 사실 제가 처음 OpenClaw를 사용했을 때는 적응이 잘 안 되었습니다. 저는 대규모 언어모델과 대화하는 방식에 익숙했기 때문인데, 사용해 보니 OpenClaw의 반응이 꽤 느린 느낌이었습니다.
그러나 이후 제가 깨달은 한 가지는, 이것이 이전의 챗봇들과 근본적으로 다르다는 점입니다. 즉, 이는 저를 대신해 대규모 작업을 수행해주는 ‘사람’이라는 점입니다. 그래서 저는 점차 더 복잡한 작업을 부여하기 시작했고, 실제로 그것이 매우 잘 수행됨을 알게 되었습니다.
이 경험은 저에게 큰 감동을 주었습니다. 모델은 처음에는 토큰 단위로 대화를 나누었지만, 지금은 에이전트가 되었고, 심지어 ‘랍스터(labster)’가 되어 작업을 대신 수행해 줍니다. 이러한 전환은 AI 전체의 상상력 공간을 크게 확장시킵니다.
동시에, 이는 전체 시스템에 대한 요구 사항도 급격히 높여줍니다. 그래서 제가 처음 OpenClaw를 사용했을 때, 조금 버벅거리는 듯한 느낌을 받았던 것입니다. 인프라 계층의 기업으로서 저는 OpenClaw가 AI 뒤에 숨은 대규모 시스템 및 생태계에 더 많은 기회와 도전을 가져다주고 있다는 점을 목격했습니다.
현재 우리가 이용할 수 있는 모든 자원은 이러한 급속한 성장을 지원하기엔 부족합니다. 예를 들어 우리 회사는 1월 말부터 거의 2주마다 토큰 사용량이 두 배로 증가해, 현재는 약 10배 수준까지 올라갔습니다.
이처럼 빠른 속도를 마지막으로 본 것은, 과거 3G 휴대폰으로 데이터를 소비하던 시절이었습니다. 저는 지금의 토큰 사용량이, 당시 매달 100MB 제한이 있었던 시절과 같다고 느낍니다.
이러한 상황에서는 모든 자원을 더욱 효과적으로 최적화하고 통합해야 합니다. 단순히 AI 분야뿐 아니라 사회 전반의 모든 사람이 OpenClaw의 AI 능력을 활용할 수 있도록 해야 합니다.
인프라 플레이어로서 저는 이 시대에 매우 흥분되어 있고, 깊은 공감을 느낍니다. 또한 이곳에는 여전히 탐구하고 시도해야 할 많은 최적화 공간이 남아 있다고 생각합니다.
02. OpenClaw는 국산 모델의 상한선을 끌어올리며, 상호작용 방식의 돌파가 매우 중요
로푸리: 저는 OpenClaw를 에이전트 프레임워크 진화 과정에서 혁명적이고 파괴적인 사건으로 간주합니다.
실제로 제 주변에서 매우 심도 깊은 코딩 작업을 하는 사람들은 여전히 클로드 코드(Claude Code)를 첫 번째 선택으로 삼고 있습니다. 그러나 OpenClaw를 사용해 본 사람이라면, 이 프레임워크가 클로드 코드보다 에이전트 프레임워크 설계 측면에서 앞서 있다는 것을 느낄 수 있을 것입니다. 최근 클로드 코드의 많은 업데이트도 사실상 OpenClaw를 따라가려는 시도입니다.
저는 OpenClaw를 사용하면서, 이 프레임워크가 제 상상력을 언제 어디서나 즉각적으로 확장시켜 준다고 느꼈습니다. 클로드 코드는 처음에 제 책상 위에서만 제 창의력을 확장시켜 주었지만, OpenClaw는 언제 어디서나 제 창의력을 확장시켜 줍니다.
OpenClaw가 제공하는 핵심 가치는 크게 두 가지입니다. 첫째는 오픈소스라는 점입니다. 오픈소스는 전체 커뮤니티가 깊이 참여하고 이 프레임워크의 진화를 중시하며 추진하는 데 매우 유리하며, 이는 매우 중요한 사전 조건입니다.
OpenClaw와 같은 AI 프레임워크의 또 다른 큰 가치는, 국내 수준이 폐쇄형 모델에 근접했으나 아직 완전히 따라잡지 못한 모델들의 상한선을 매우 높이 끌어올렸다는 점입니다.
대부분의 시나리오에서, (국산 오픈소스 모델 + OpenClaw)의 작업 완료도가 클로드의 최신 모델과 거의 유사하다는 것을 발견할 수 있습니다. 동시에, 이는 하한선도 잘 보장합니다—Harness 시스템 또는 Skills 시스템 등 여러 측면의 설계를 통해 작업의 완전성과 정확도를 보장합니다.
요약하자면, 베이스 대규모 언어모델 공급업체 개발자 입장에서 보면, OpenClaw는 기초 대규모 언어모델의 하한선을 보장하면서 상한선을 끌어올립니다.

또한, 저는 이것이 전체 커뮤니티에 가져다준 또 다른 가치는, 대규모 언어모델을 넘어서 에이전트 계층이 얼마나 큰 상상력의 공간을 품고 있는지를 인식하게 했다는 점이라고 생각합니다.
최근 저는 커뮤니티 내에서 연구자뿐 아니라 점점 더 많은 사람들이 AGI 변혁에 참여하고, Harness, Scaffold와 같은 더 강력한 에이전트 프레임워크를 접하기 시작하는 모습을 관찰했습니다. 이들은 어느 정도 이러한 도구를 사용해 자신의 일부 업무를 대체함과 동시에, 자신이 더 상상력 있는 일에 시간을 쏟을 수 있도록 여유를 확보하고 있습니다.
황차오: 먼저 상호작용 방식 측면에서 보면, OpenClaw가 이번에 인기를 끈 첫 번째 이유는 아마도 ‘살아 있는 사람처럼 느껴지는’ 경험을 제공했기 때문일 것입니다. 사실 저희는 이미 1~2년간 에이전트 개발을 해왔지만, 이전의 커서(Cursor), 클로드 코드와 같은 에이전트는 더 많이 ‘도구’처럼 느껴졌습니다. 반면 OpenClaw는 ‘즉시 메시징 앱에 내장된’ 방식으로 처음으로 마음속의 ‘개인 자비스(Jarvis)’에 가까운 느낌을 주었습니다. 저는 이것이 상호작용 방식의 진정한 돌파구라고 생각합니다.
또 다른 점은, Agent Loop와 같은 단순하지만 효율적인 프레임워크가 다시 한번 실행 가능함이 입증되었다는 점입니다. 동시에, 우리는 다시 한번 생각해보게 됩니다—우리가 필요로 하는 것은 모든 일을 할 수 있는 ‘만능 슈퍼 에이전트’인가, 아니면 가벼운 운영체제나 비계처럼 작고 효율적인 ‘작은 집사’인가?
OpenClaw가 제시한 접근법은, 바로 이러한 ‘작은 시스템’ 또는 ‘랍스터 운영체제’와 그 생태계를 통해 사람들의 ‘놀고 싶은 마음’을 자극함으로써, 생태계 내의 모든 도구를 진정으로 활성화시키는 것입니다.
Skills, Harness와 같은 기능이 등장함에 따라, 점점 더 많은 사람들이 OpenClaw와 같은 시스템을 위한 애플리케이션을 설계하고, 각 산업 분야에 가치를 부여할 수 있게 되었습니다. 저는 이 점이 자연스럽게 전체 오픈소스 생태계와 긴밀히 결합한다는 점에서 매우 중요하다고 생각합니다. 제 관점에서 이 두 가지가 우리가 얻은 가장 큰 통찰입니다.
03. GLM 신모델은 ‘일하기 위해’ 특화되었으며, 가격 인상은 정상적인 상업적 가치로의 복귀
양즈린: 장펑 씨께 질문드리겠습니다. 최근 지푸가 새로운 GLM-5 Turbo 모델을 발표한 것으로 알고 있는데, 에이전트 능력 면에서 상당한 강화가 있었다고 이해하고 있습니다. 이 신모델이 다른 모델들과 어떤 차이가 있는지 소개해 주실 수 있겠습니까? 또한 가격 인상 전략도 관찰했는데, 이는 어떤 시장 신호를 반영하는 것입니까?
장펑: 훌륭한 질문입니다. 며칠 전 우리는 긴급히 업데이트를 진행했는데, 이는 우리 전체 발전 로드맵 상의 한 단계였으며, 단지 시기를 앞당겨 발표한 것뿐입니다.
가장 중요한 목적은 기존의 ‘단순한 대화’에서 ‘진정한 일하기’로 전환하는 것입니다—이는 최근 모두가 공통으로 느끼는 바입니다: 대규모 언어모델은 이제 단순히 대화만 하는 수준을 넘어, 진짜로 사람을 돕는 일을 할 수 있게 되었습니다.
그러나 ‘일하기’ 뒤에는 매우 높은 능력 요구 사항이 숨어 있습니다. 모델은 장기 과제 계획을 스스로 수립하고, 계속해서 시도와 오류를 반복하며, 컨텍스트를 압축하고, 디버깅을 수행해야 하며, 다중 모달 정보를 처리해야 할 수도 있습니다. 따라서 이는 전통적인 대화 중심의 일반 모델과는 전혀 다른 능력 요구 사항을 제기합니다. GLM-5 Turbo는 바로 이러한 측면에서 특별히 강화되었으며, 특히 말씀하신 대로 ‘일하게’ 하고 ‘72시간 연속으로 루프를 돌리게’ 하는 데 초점을 맞췄습니다. 여기에는 많은 작업이 포함됩니다.
또한 많은 분들이 토큰 소비 문제에 관심을 가지고 계신데요. 똑똑한 모델이 복잡한 작업을 수행할 경우, 토큰 소비량은 막대합니다. 일반인은 이를 잘 느끼지 못할 수 있지만, 청구서를 보면 돈이 정말 빠르게 줄어드는 것을 확인할 수 있습니다. 따라서 우리는 복잡한 작업을 수행할 때 모델이 더 효율적인 토큰 사용률로 작업을 완료할 수 있도록 최적화를 진행했습니다. 전반적으로 모델 아키텍처는 여전히 다중 작업 협업을 위한 일반 아키텍처이지만, 능력 측면에서는 특정 방향으로 강화되었습니다.
가격 인상에 대해서도 설명드리겠습니다. 앞서 말씀드린 바와 같이, 이제는 단순히 질문 하나를 던지고 답변 하나를 받는 것이 아닙니다. 그 뒤에는 매우 긴 추론 체인이 존재합니다. 많은 작업은 코드 작성과 하위 인프라와의 상호작용을 필요로 하며, 계속해서 디버깅과 오류 수정을 반복해야 하므로, 소비량은 매우 큽니다. 복잡한 작업 하나를 완료하는 데 필요한 토큰 수는, 단순한 질문 하나에 대한 답변을 얻는 데 필요한 토큰 수의 10배에서 100배까지 될 수 있습니다.
따라서 가격을 어느 정도 인상해야 하며, 모델도 커지고 추론 비용도 상응하여 증가했습니다. 우리는 이를 정상적인 상업적 가치로 복귀시킨 것이며, 장기적인 저가 경쟁은 전 산업 발전에 해롭습니다. 이는 우리 모델의 상업화가 건강한 순환 고리를 형성하고, 지속적으로 모델 능력을 최적화하며, 더 나은 서비스를 제공하기 위한 것입니다.
04. 더 효율적인 토큰 공장 구축, 인프라 자체도 에이전트가 되어야 함
양즈린: 현재 오픈소스 모델이 점점 더 많아지고 생태계가 형성되면서, 다양한 모델이 서로 다른 컴퓨팅 파워 플랫폼에서 사용자에게 더 많은 가치를 제공하고 있습니다. 토큰 사용량의 폭증과 함께, 대규모 언어모델은 훈련 시대에서 추론 시대로 진입하고 있습니다. 이제 리슈에 씨께 질문드립니다. 인프라 측면에서 보았을 때, 추론 시대는 무문신궁(无问芯穹)에게 어떤 의미를 갖습니까?
샤리슈에: 우리는 AI 시대에 탄생한 인프라 기업으로, 현재 지푸, 킴이(Kimi), 미모(MiMo) 등에게도 지원을 제공하며, 사용자들이 토큰 공장을 보다 효율적으로 활용할 수 있도록 돕고 있습니다. 또한 많은 대학 및 연구기관과도 협력하고 있습니다.
따라서 우리는 항상 한 가지 질문을 고민해 왔습니다: AGI 시대에는 어떤 인프라가 필요한가? 그리고 우리는 그것을 어떻게 단계적으로 실현하고 구현해 나갈 것인가? 현재 우리는 단기, 중기, 장기 각 단계에서 해결해야 할 문제에 대해 이미 충분한 준비를 마쳤습니다.
현재 가장 직접적인 문제는, 방금 패널들이 언급한 바와 같이, OpenClaw가 촉발시킨 토큰 사용량의 폭증으로 인해 시스템 효율성에 대한 최적화 요구가 더욱 높아졌다는 점입니다. 가격 조정 역시 이러한 요구에 대한 대응 방식 중 하나입니다.
우리는 항상 소프트웨어와 하드웨어를 통합하는 방식으로 전략을 수립하고 문제를 해결해 왔습니다. 예를 들어, 우리는 거의 모든 종류의 컴퓨팅 칩을 연결하였으며, 국내 10여 종의 다양한 칩과 수십 개의 다른 컴퓨팅 파워 클러스터를 통합적으로 연결했습니다. 이를 통해 AI 시스템 내의 컴퓨팅 파워 자원 부족 문제를 해결할 수 있으며, 자원이 부족할 때는 우선 사용 가능한 자원을 모두 활용하고, 각 컴퓨팅 파워를 가장 효율적으로 활용하도록 합니다.
따라서 이 단계에서 우리가 해결해야 할 과제는, 보다 효율적인 토큰 공장을 구축하는 것입니다. 여기에는 모델과 하드웨어의 VRAM 등 다양한 자원을 최적화하여 적합하게 매칭시키는 작업이 포함되며, 최신 모델 구조와 하드웨어 구조 간에 더 깊은 ‘화학 반응’을 일으킬 수 있는지 여부도 검토하고 있습니다. 그러나 현재의 효율성 문제를 해결하는 것은 단지 표준화된 토큰 공장을 구축하는 것에 불과합니다.

에이전트 시대를 향해 나아가기 위해, 우리는 이 정도로는 부족하다고 판단합니다. 왜냐하면 에이전트는 인간처럼 한 가지 과제를 맡길 수 있기 때문입니다. 저는 확신합니다. 현재 클라우드 컴퓨팅 시대의 많은 인프라는 프로그램이나 인간 엔지니어를 위한 것이지, AI를 위한 것이 아닙니다. 이는 마치 우리가 인프라를 구축하고, 그 위에 인간이 사용할 수 있는 인터페이스를 제공한 후, 그 위에 다시 에이전트를 연결하기 위한 레이어를 추가하는 것과 같습니다. 이러한 방식은 인간의 조작 능력으로 인해 에이전트의 발휘 공간을 제한하고 있는 것입니다.
예를 들면, 에이전트는 밀리세컨드 단위로 사고하고 작업을 시작할 수 있지만, K8s(Kubernetes)와 같은 하위 계층 기능은 이를 위해 준비되어 있지 않습니다. 왜냐하면 인간이 작업을 시작하는 빈도는 분 단위이기 때문입니다. 따라서 우리는 한 단계 더 나아간 기능이 필요하며, 이를 ‘Agentic Infra’ 즉 ‘지능화된 토큰 공장’이라 부르고 있습니다. 이것이 바로 무문신궁이 현재 추진하고 있는 사업입니다.
더 장기적으로 보면, 진정한 AGI 시대가 도래하면 인프라 자체도 에이전트가 되어야 합니다. 우리가 구축하는 이 공장 역시 자율 진화하고 자율 반복 개선할 수 있어야 하며, 자율 조직 형태를 이뤄야 합니다. 이는 마치 CEO가 있는 것과 같으며, 이 CEO 자체가 에이전트—예를 들어 OpenClaw—가 되어 전체 인프라를 관리하고, AI 고객의 요구에 따라 스스로 요구 사항을 제시하고 인프라를 반복 개선합니다. 이렇게 해야만 AI와 AI 사이가 보다 원활하게 결합될 수 있습니다. 우리는 이미 에이전트 간의 보다 원활한 통신, Cache to Cache와 같은 기능 개발도 시도하고 있습니다.
따라서 우리는 항상 인프라와 AI의 발전이 격리된 상태가 되어서는 안 된다고 생각합니다—단순히 요구사항을 받아 구현하는 것이 아니라, 풍부한 ‘화학 반응’을 일으켜야 한다는 것입니다. 이것이야말로 진정한 의미의 소프트웨어-하드웨어 협업, 알고리즘과 인프라의 협업이며, 무문신궁이 항상 실현하고자 하는 사명입니다. 감사합니다.
05. ‘효율성에 대한 타협’도 의미 있는 혁신, 딥시크는 국내 팀에 용기와 자신감을 부여
양즈린: 다음으로 푸리 씨께 질문드리겠습니다. 샤오미는 최근 신모델 발표와 기술의 오픈소스 공개를 통해 커뮤니티에 큰 기여를 했습니다. 샤오미의 대규모 언어모델 개발에서 어떤 독특한 강점이 있다고 보십니까?
로푸리: 먼저 샤오미의 독특한 강점에 대해 논하기 전에, 중국의 대규모 언어모델 팀 전체가 가진 강점에 대해 이야기하고 싶습니다. 이 주제는 보다 광범위한 가치가 있다고 생각합니다.
약 2년 전, 중국의 베이스 모델 팀은 이미 훌륭한 돌파구를 마련하기 시작했습니다—우리는 제한된 컴퓨팅 파워, 특히 NVLink 인터커넥트 대역폭이 제한된 컴퓨팅 파워 조건 하에서, 이러한 저성능 컴퓨팅 파워의 제약을 어떻게 극복할 것인가를 고민했습니다. 이는 일견 ‘효율성을 위해 타협한’ 모델 구조 혁신—딥시크 V2, V3 시리즈, MoE, MLA 등—을 낳았습니다.
그러나 이후 우리는 이러한 혁신이 진정한 변화를 촉발시켰다는 것을 알게 되었습니다: 고정된 컴퓨팅 파워 하에서 최고 수준의 지능을 어떻게 발휘할 것인가? 이것이 바로 딥시크가 중국 내 모든 베이스 모델 팀에 용기와 자신감을 부여한 부분입니다. 오늘날 우리의 국산 칩, 특히 추론 칩과 훈련 칩은 이미 이러한 제약을 받지 않지만, 바로 이러한 제약 조건 속에서 우리는 더 높은 훈련 효율성과 더 낮은 추론 비용을 위한 새로운 모델 구조를 탐색하게 되었습니다.
최근 등장한 하이브리드 희소성(Hybrid Sparse), 선형 어텐션(Linear Attention) 등 구조, 예를 들어 딥시크의 NSA, 킴이의 KSA, 샤오미의 차세대 구조를 위한 HySparse 등은 MoE 세대 구조와는 구별되는, 에이전트 시대를 위한 모델 구조 혁신입니다.
왜 구조 혁신이 이토록 중요한가요? 사실 OpenClaw를 진정으로 사용해 보면, 사용할수록 더 편리해지고, 더 똑똑해지는 것을 알 수 있습니다. 그 전제 조건 중 하나는 추론 컨텍스트 길이입니다. 긴 컨텍스트는 오랫동안 논의되어 온 주제이지만, 지금 실제로 긴 컨텍스트 하에서 탁월한 성능과 강력한 성능을 보이면서도 추론 비용은 낮은 모델이 존재할까요?
사실 많은 모델이 1M 또는 10M의 컨텍스트를 처리하지 못하는 것이 아니라, 1M, 10M의 컨텍스트를 추론하는 비용이 너무 비싸고 속도가 너무 느리기 때문입니다. 비용을 낮추고 속도를 높여야만, 진정한 고생산성 가치를 지닌 작업을 모델에게 맡길 수 있으며, 이러한 긴 컨텍스트 하에서 더 높은 복잡도의 작업을 수행하거나 심지어 모델의 자율 반복 개선까지 가능해집니다.
즉, 모델의 자율 반복 개선이란, 복잡한 환경 속에서 초장기 컨텍스트를 활용해 스스로 진화하는 것을 의미합니다. 이 진화는 에이전트 프레임워크 자체에 대한 것일 수도 있고, 모델 파라미터 자체에 대한 것일 수도 있습니다—왜냐하면 저는 컨텍스트 자체가 바로 파라미터에 대한 진화라고 생각하기 때문입니다. 따라서 초장기 컨텍스트 아키텍처를 구현하는 방법, 추론 측면에서 초장기 컨텍스트를 효율적으로 처리하는 방법은 전방위적인 경쟁입니다.
제가 방금 언급한 것처럼, 프리트레이닝 단계에서 long-context-efficient 아키텍처를 구축하는 일—이는 약 1년 전부터 우리가 탐색해 온 문제입니다. 이제 진정으로 장기 과제에서 안정성과 높은 상한선 효과를 달성하기 위해, 우리는 포스트트레이닝 단계에서 혁신적인 패러다임을 반복적으로 개선하고 있습니다.
우리는 어떻게 더 효과적인 학습 알고리즘을 구성할 것인지, 어떻게 1M, 10M, 100M 컨텍스트에서 진정한 장기 종속 관계를 갖는 텍스트를 실제 환경에서 수집할 것인지, 복잡한 환경에서 생성된 궤적 데이터를 어떻게 결합할 것인지 등을 고민하고 있습니다. 이것이 바로 우리가 현재 포스트트레이닝 단계에서 진행 중인 작업입니다.
그러나 더 장기적으로 보면, 대규모 언어모델 자체의 급속한 발전과 에이전트 프레임워크의 보완 덕분에, 리슈에가 언급한 바와 같이, 최근 몇 달간 추론 수요는 거의 10배 증가했습니다. 그렇다면 올해 전체 토큰 사용량 증가는 100배에 이를까요?
이때 우리는 또 다른 차원의 경쟁—즉 컴퓨팅 파워, 혹은 추론 칩, 더 나아가 에너지까지—에 진입하게 됩니다. 따라서 만약 우리가 함께 이 문제를 고민한다면, 저는 여러분으로부터 더 많은 것을 배울 수 있을 것이라고 생각합니다. 감사합니다.
06. 에이전트는 세 가지 핵심 모듈로 구성, 멀티에이전트 폭발은 충격을 가져올 것
양즈린: 매우 통찰력 있는 발표였습니다. 다음으로 황차오 씨께 질문드리겠습니다. 황 씨는 나노봇(Nanobot)과 같은 매우 영향력 있는 에이전트 프로젝트를 개발하셨고, 커뮤니티에서도 많은 팬을 보유하고 계십니다. 에이전트의 Harness 또는 애플리케이션 측면에서, 앞으로 어떤 기술 방향이 중요하고 주목할 가치가 있다고 보십니까?
황차오: 에이전트 기술을 추상화해 보면, 핵심은 Planning, Memory, Tool Use라는 세 가지 모듈입니다.

먼저 Planning에 대해 말씀드리겠습니다. 현재의 문제는 장기 과제 또는 매우 복잡한 컨텍스트—예를 들어 500단계 이상의 과정—에서 많은 모델이 우수한 계획을 수립하지 못한다는 점입니다. 이는 근본적으로 모델이 이러한 암묵적 지식을 갖추지 못했기 때문이며, 특히 복잡한 수직 분야에서는 더욱 그렇습니다. 따라서 향후 다양한 복잡 과제의 지식을 모델에 고정화하는 것이 하나의 방향이 될 수 있습니다.
물론 Skill, Harness는 어느 정도 Planning에서 발생하는 오류를 완화해주는데, 이는 고품질의 Skill을 제공함으로써, 모델이 어려운 작업을 수행하도록 유도하는 역할을 하기 때문입니다.
다음으로 Memory에 대해 말씀드리겠습니다. Memory는 정보 압축의 부정확성과 검색 오류 문제가 항상 존재한다고 느껴집니다. 특히 장기 과제와 복잡한 시나리오에서는 Memory에 대한 부담이 급증합니다. 현재 OpenClaw와 같은 프로젝트에서는 대부분 가장 단순한 파일 시스템 기반의 Markdown 형식 Memory를 사용하며, 공유 파일을 통해 작동합니다. 향후 Memory는 계층적 설계로 나아가야 하며, 보다 일반화된 형태가 되어야 합니다.
솔직히 말해, 현재의 Memory 메커니즘은 일반화하기 어렵습니다—왜냐하면 코딩 시나리오, 딥 리서치 시나리오, 멀티모달 시나리오 등 데이터 모달이 매우 다르기 때문에, 이러한 Memory를 효율적으로 검색하고 색인하는 동시에 높은 성능을 유지하는 것은 항상 균형을 잡는 문제이기 때문입니다.
또한, 현재 OpenClaw가 에이전트 생성의 진입 장벽을 대폭 낮춰줌으로써, 앞으로는 단 하나의 ‘랍스터’가 아니라 여러 ‘랍스터’가 존재할 가능성이 있습니다. 저는 이미 킴이(Kimi)도 에이전트 스웜(Agent Swarm) 메커니즘을 도입했다는 것을 확인했습니다. 향후 각 사람은 ‘한 무리의 랍스터’를 보유하게 될 것입니다.
단일 랍스터에 비해, 한 무리의 랍스터가 초래하는 컨텍스트 폭증은 상상할 수 있으며, 이는 Memory에 대한 부담을 매우 크게 합니다. 현재는 ‘한 무리의 랍스터’가 초래하는 컨텍스트, 특히 복잡한 코딩, 과학적 발견과 같은 시나리오에서 모델이나 전체 에이전트 아키텍처에 대한 부담을 관리할 수 있는 우수한 메커니즘이 아직 없습니다.
마지막으로 Tool Use, 즉 Skill에 대해 말씀드리겠습니다. 현재 Skill이 직면한 문제는 과거 MCP가 직면했던 문제와 유사합니다—즉, 품질 보장이 어렵고, 보안 위험이 존재한다는 점입니다. 현재 Skill 역시 마찬가지로, 많은 Skill이 존재하지만 고품질 Skill은 드물며, 저품질 Skill은 에이전트의 작업 완료 정확도에 영향을 줍니다. 또한 악의적인 주입(malicious injection) 문제도 있습니다. 따라서 Tool Use 측면에서는 커뮤니티가 전체 Skill 생태계를 더 잘 구축해야 하며, 심지어 Skill이 실행 과정에서 스스로 새로운 Skill을 진화시킬 수 있도록 해야 할 것입니다.
종합적으로, Planning, Memory, Tool Use는 현재 에이전트가 직면한 몇 가지 고통 포인트이자, 향후 가능성이 있는 방향들입니다.
07. 향후 12개월간의 키워드: 생태계, 지속 가능한 토큰, 자율 진화, 컴퓨팅 파워
양즈린: 두 패널이 서로 다른 관점에서 동일한 문제—즉, 과제 복잡도 증가에 따른 컨텍스트 폭증—를 논의하고 계신 것을 볼 수 있습니다. 모델 측면에서는 원생 컨텍스트 길이를 향상시킬 수 있으며, 에이전트 Harness 측면에서는 Planning, Memory, 멀티에이전트와 같은 메커니즘이 특정 모델 능력 하에서 더 복잡한 과제를 지원할 수 있습니다. 저는 이 두 방향이 향후 더 많은 ‘화학 반응’을 일으키고, 과제 완료 능력을 더욱 향상시킬 것이라고 생각합니다.
마지막으로 개방형 전망을 제시하겠습니다. 각 패널께서 향후 12개월간 대규모 언어모델 발전의 추세와 기대를 한 단어로 표현해 주십시오. 이번에는 황차오 씨부터 시작하겠습니다.
황차오: 12개월은 AI 분야에서 보면 꽤 먼 미래처럼 느껴지며, 12개월 후에 어떤 식으로 발전할지 상상조차 어렵습니다.
양즈린: 원래 여기에는 ‘5년’이라고 쓰여 있었는데, 제가 바꿨습니다.
황차오: 네, 하하. 제가 떠오른 단어는 ‘생태계(ecosystem)’입니다. 현재 OpenClaw로 인해 커뮤니티가 매우 활성화되고 있지만, 향후 에이전트가 단순히 ‘재미로 해보는’ 수준을 넘어서 진정한 ‘근로자’가 되기 위해서는, 이를 진정으로 정착시켜야 합니다—즉, 단순한 도구가 아니라 진정한 동료(co-worker)가 되어야 합니다.
이를 위해서는 전체 생태계의 노력이 필요하며, 특히 오픈소스를 통해 기술 탐색과 모델 기술을 모두 공개한 후, 전체 커뮤니티가 함께 구축해야 합니다—모델의 반복 개선, Skill 플랫폼의 반복 개선, 다양한 도구 등이 모두 ‘랍스터’를 위한 생태계 창출에 더 잘 맞춰져야 합니다.
매우 뚜렷한 추세는, 향후 소프트웨어가 여전히 인간을 대상으로 할 것인가? 저는 향후 많은 소프트웨어가 인간을 대상으로 하지 않을 것이라고 믿습니다—왜냐하면 인간에게는 GUI가 필요하지만, 향후에는 에이전트-네이티브(Agent-Native) 사용을 위한 것이 될 것이기 때문입니다. 흥미로운 점은, 인간은 아마도 자신을 기쁘게 하는 GUI만 사용하게 될 것입니다. 현재 전체 생태계는 GUI, MCP에서 CLI 모드로 전환되고 있습니다. 따라서 생태계는 소프트웨어 시스템, 데이터, 다양한 기술을 모두 에이전트 네이티브 형태로 전환해야 하며, 이로써 전체 발전이 더욱 풍부해질 것입니다.
로푸리: 문제를 1년으로 좁혀 생각하는 것은 매우 의미 있는 일입니다. 만약 5년을 생각한다면, 제 마음속 AGI 정의에 비추어 보면, 이미 실현된 것처럼 느껴집니다. 따라서 향후 1년간 AGI 발전 과정에서 가장 중요한 일을 한 마디로 표현하자면, 그것은 ‘자율 진화(Self-evolution)’입니다.
이 단어는 다소 신비롭게 들릴 수 있지만, 지난 1년간 여러 차례 언급되어 왔습니다. 그러나 최근 저는 이 개념에 대해 더 깊은 통찰을 얻었고, ‘자율 진화’를 어떻게 실현할 것인지에 대한 보다 현실적이고 실행 가능한 방안을 찾았습니다. 그 이유는, 강력한 모델을 확보한 후, 우리는 기존 챗(Chat) 패러다임 하에서 사전 훈련 모델의 잠재력을 충분히 발휘하지 못해 왔고, 에이전트 프레임워크가 바로 이 잠재력을 활성화시켰기 때문입니다. 우리가 모델에게 더 오랜 시간 동안 작업을 수행하도록 했을 때, 모델이 스스로 학습하고 진화할 수 있음을 발견했습니다.
간단한 시도는 다음과 같습니다: 기존의 에이전트 프레임워크에 검증 가능한 조건 제약을 추가하고, 루프(Loop)를 설정해 모델이 목표를 지속적으로 반복 최적화하도록 하면, 모델이 점점 더 나은 해결책을 제시하는 것을 확인할 수 있습니다. 이러한 자율 진화는 이미 하루 이틀 정도는 실행 가능하며, 물론 과제 난이도에 따라 달라집니다.
예를 들어, 보다 우수한 모델 구조를 탐색하는 과학 연구 분야에서는, 모델 구조가 PPL(Perplexity)과 같은 평가 기준을 갖기 때문에, 이러한 결정론적 과제에서 모델이 이미 이틀에서 사흘간 자율적으로 최적화하고 실행하는 것을 확인할 수 있습니다.
따라서 제 관점에서, 자율 진화는 ‘새로운 것을 창조’할 수 있는 유일한 영역입니다. 이는 기존 인간의 생산성을 단순히 대체하는 것이 아니라, 최정상급 과학자처럼 세상에 아직 존재하지 않는 것을 탐구하는 것입니다. 1년 전에는 이 시간선을 3~5년으로 예측했지만, 최근에는 1~2년으로 축소해야 한다고 확신합니다. 곧 우리는 대규모 언어모델과 강력한 자율 진화 에이전트 프레임워크를 결합해, 과학 연구를 최소 지수적 수준으로 가속화할 수 있을 것입니다.
최근 저는 우리 팀에서 대규모 언어모델 연구를 담당하는 동료들이 매우 불확실하고 창의적인 워크플로우를 갖고 있음을 발견했습니다. 그러나 클로드 코드와 최정상급 모델을 활용함으로써,
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News











