
'두바오'가 가격선을 낮추며 글로벌 대규모 모델 경쟁이 가성비 중심으로 전환
글: 무무
대규모 모델들도 이제 가격 경쟁에 나서고 있다.
5월 15일, 바이트댄스 산하의 화산엔진(Volcano Engine)은 두바오(DouBao) 대규모 모델을 발표했다. C단 사용자를 위한 두바오 앱은 무료로 이용할 수 있으며, B2B 시장에서 두바오 대규모 모델은 업계 최저가를 형성하고 있다.
화산엔진 사장 탄다이(Tan Dai)에 따르면, 두바오 메인 모델(≤32K)의 기업 시장 가격은 천 토큰당 0.0008위안(약 0.8원)에 불과하며, 0.8원으로 1500자 이상의 한자를 처리할 수 있어 업계 대비 99.3% 저렴하다.
두바오가 높은 비용 효율성으로 등장하기 전, 알리바바의 통의천문(通義千問), 지보 AI(Zhipu AI), 딥시크(DeepSeek) 등 국내 많은 대규모 모델들이 이미 가격 인하 경쟁에 돌입했으며, 백여 개의 모델 경쟁도 집단 할인으로 새로운 단계에 접어들었다. 탄다이가 말한 것처럼, 비용 절감은 대규모 모델을 '가치 창출 단계'로 빠르게 이끌어내는 핵심 요소다.
두바오(B豆包), B2B 시장 가격을 업계 신저가로 인하
두바오 대규모 모델의 전신은 2023년 8월 바이트댄스가 출시한 트랜스포머 아키텍처 기반 첫 번째 대규모 모델인 윈야쿠(YunYaku) 모델이다. 그로부터 반년 만에 두바오 대규모 모델은 포괄적인 제품군을 갖추었으며, 산업 고객 대상 가격도 인하했다.
두바오 메인 모델의 기업 시장 가격은 천 토큰당 0.0008위안으로, 0.8원으로 1500자 이상의 한자를 처리할 수 있어 업계보다 99.3% 저렴하다. 이를 기준으로 계산하면, 1위안으로 두바오 메인 모델의 125만 토큰을 구매할 수 있으며, 이는 약 200만 자의 한자 분량으로, 소설 『삼국지연의』 세 권 분량에 해당한다. 또한 128K 두바오 일반 모델도 천 토큰당 0.005위안이며, 업계 평균 대비 95.8% 저렴하다.
GPT-4 Turbo의 경우 입력 1000토큰당 0.01달러, 출력 1000토큰당 0.03달러(약 0.21위안)인데 비해, 바이트댄스는 사실상 가격을 ‘절반 이하’로 낮춰 AI 업계의 핀둬둬(Pinduoduo)라 불릴 만하다.
두바오뿐만 아니라 국내 많은 대규모 모델들이 가격을 내리고 있다.
최근 바이두는 웬xin 대규모 모델의 경량 버전을 발표했으며, ERNIE Tiny 버전은 천 토큰당 0.001위안으로, 즉 1위안에 100만 토큰을 제공한다.
올해 5월, 지보 AI(Zhipu AI)도 대규모 모델의 상용 가격을 크게 인하했다. 입문형 제품 GLM-3 Turbo 모델의 호출 가격이 80% 인하되어 백만 토큰당 5위안에서 1위안으로 조정되었으며, 더 많은 기업과 개인 사용자가 부담 없이 이용할 수 있게 되었다.
지보 AI 대규모 모델 가격표
5월 6일, 중국 유명 사모펀드 거물 훌랑량화(Huanfang Quant) 산하 AI 기업 딥시크(DeepSeek)는 신형 2세대 MoE(Mixture of Experts) 대규모 모델 DeepSeek-V2를 발표했으며, DeepSeek-V2 API 가격은 입력 백만 토큰당 1위안, 출력 백만 토큰당 2위안(32K 컨텍스트 기준)이다.
5월 9일, 알리클라우드는 통의천문 2.5를 정식 출시했다. 오픈컴퍼스(OpenCompass) 평가 결과에 따르면, 통의천문 2.5는 GPT-4 Turbo와 동등한 성능을 기록했으며, 개인 사용자는 앱, 공식 웹사이트 및 소형 프로그램을 통해 무료로 이용할 수 있다.
5월 14일, 텐센트의 혼위안 문생도(텍스트 생성 이미지) 대규모 모델이 직접 오픈소스화되어 무료 상용이 가능하게 되었다.
해외에서도 OpenAI가 최근 발표한 GPT-4o는 대폭 할인되었다. 모든 사용자에게 무료로 제공될 뿐 아니라, API 호출 가격도 작년 11월 출시된 GPT-4-Turbo 대비 절반으로 낮췄지만 속도는 두 배로 빨라졌다. 이는 OpenAI 대규모 모델 제품의 세 번째 가격 인하다.
프랑스 AI 기업 미스트랄 AI(Mistral AI)의 대규모 모델 Mistral Large 역시 현재 입력·출력 가격이 GPT-4 Turbo보다 약 20% 저렴해 주목을 받았다.
국내외를 막론하고 대규모 모델들은 집단적으로 가격을 낮추고 있다.
대규모 모델 비용 절감, 응용 실현과 효율 증대
각 제조사들의 '가격 전쟁'이 본격화되고 있지만, 불과 반 년 전까지만 해도 사람들은 대규모 모델 훈련이 매우 비싸다는 것을 잘 알고 있었다. 왜 단지 반 년 만에 제조사들이 가격을 '낮출' 수 있게 됐을까? 왜 모두가 경쟁적으로 가격 인하에 나선 것일까?
화산엔진 사장 탄다이는 "비용 절감이 대규모 모델을 '가치 창출 단계'로 빠르게 진입시키는 핵심 요소"라고 말한다. 중소기업 고객 입장에서 대규모 모델 호출 시 중요한 고려사항 중 하나가 바로 비용이다. 탄다이는 바이트댄스가 모델 구조, 훈련, 생산 등 다양한 기술적 측면에서 최적화 수단을 통해 가격 인하를 달성했다고 밝혔다.
OpenAI CEO 샘 알트먼(Sam Altman)은 사람들이 ChatGPT에서 광고를 보지 않고도 서비스를 이용할 수 있다는 점에 자부심을 느낀다고 말하며, "AI 제품을 사람들에게 무료로 제공하는 것이 우리의 핵심 미션 중 하나"라고 강조했다.
확실히, 저렴한 가격은 대규모 모델 개발 기업들이 시장 기회를 잡아 자리를 굳히는 데 도움이 되며, 동시에 사용자 수 증가는 다시 더 우수한 모델 개발을 지원한다. 그렇다면 대규모 모델의 훈련 비용은 실제로 감소했을까?
작년 GPT-4 출시 당시 샘 알트먼은 OpenAI 최대 규모 모델의 훈련 비용이 '5000만 달러를 훨씬 초과한다'고 언급한 바 있다. 스탠포드 대학이 발표한 『2024 인공지능 지수 보고서』에 따르면, OpenAI의 GPT-4 훈련 비용은 약 7800만 달러로 추정된다.
높은 대규모 모델 훈련 비용은 곧바로 사용료 상승으로 이어져 많은 기업 사용자들을 차단했다.
하지만 연구자들은 더 낮은 비용의 훈련 방법을 찾고 있다. 작년, 싱가포르 국립대학교와 칭화대학 연구진은 VPGTrans라는 프레임워크를 제안하여 극히 낮은 비용으로 고품질 멀티모달 대규모 모델을 훈련할 수 있게 했다. 시각 모듈을 처음부터 훈련하는 것과 비교해, VPGTrans 프레임워크는 BLIP-2 FlanT5-XXL의 훈련 비용을 19,000위안 이상에서 1,000위안 이하로 줄일 수 있다.
국내 대규모 모델 개발사들도 다양한 방면에서 비용 절감과 효율 향상을 위한 방법을 모색하고 있다. 딥시크-V2는 데이터셋 품질 향상과 아키텍처 최적화 후, AI 이종 컴퓨팅 플랫폼 '백舸(백거)'를 통해 훈련 및 추론 시나리오의 처리량을 최대 30%, 60%까지 높였다.
훈련 과정 외에도, 일부 대규모 모델 훈련 인프라인 칩 가격도 하락하고 있다. 예를 들어, 엔비디아 AI 칩인 Nvidia A100의 가격 하락은 대규모 모델 훈련 비용을 약 60% 감소시켰다.
대규모 모델 가격 전쟁의 가장 직접적인 영향은 응용 분야의 실현 속도가 빨라지고 있다는 점이다. 두바오 플랫폼에서는 이미 800만 개 이상의 스마트 에이전트가 생성됐으며, GPT 스토어에는 GPT 모델 기반 앱이 300만 개 이상 등록됐다.
불과 반 년 만에, 돈을 들여 대규모 모델의 성능을 겨루던 시대는 이미 과거가 된 듯하다. 지금은 각사의 대규모 모델이 가격 대비 성능이 얼마나 좋은지를 소비자들이 더 중요하게 여기게 되었다. 이는 대규모 모델의 응용이 시나리오와 상업화 측면에서 더욱 빠르게 실현되도록 촉진할 것이다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News










