
견해: 왜 우리는 여전히 Bittensor를 낙관하는가?
작성: 0xai
번역: TechFlow
Bittensor란 무엇인가?
Bittensor는 인공지능(AI) 제품 자체도 아니며, AI 제품이나 서비스를 생산하거나 제공하지도 않습니다. Bittensor는 경제 시스템으로서, AI 제품 제조자들에게 매우 경쟁력 있는 인센티브 체계를 제공함으로써 AI 제품 시장의 최적화 장치 역할을 합니다. Bittensor 생태계 내에서 고품질의 생산자는 더 많은 인센티브를 받고, 경쟁력이 낮은 생산자는 서서히 퇴출됩니다.
그렇다면 Bittensor는 어떻게 구체적으로 이러한 인센티브 메커니즘을 만들어, 효율적인 경쟁을 촉진하고 고품질 AI 제품의 유기적 생산을 이끌어낼 수 있을까요?

Bittensor 페럴 모델
Bittensor는 이러한 목표를 달성하기 위해 페럴 모델을 사용합니다. 검증자(Verifier)들은 생태계 내 AI 제품의 품질을 평가하고, 그 품질에 따라 보상을 분배하여 고품질 생산자가 더 많은 인센티브를 받도록 합니다. 이는 지속적으로 고품질 출력을 늘리는 동기를 부여하며, Bittensor 네트워크의 가치를 강화하고 TAO의 가치 상승을 촉진합니다. TAO의 가치 상승은 더 많은 고품질 생산자들이 Bittensor 생태계에 참여하게 만들 뿐 아니라, 품질 평가 결과를 조작하려는 공격자의 비용도 증가시킵니다. 이로 인해 정직한 검증자들 사이의 합의가 더욱 견고해지고, 평가 결과의 객관성과 공정성이 강화되어 보다 효과적인 경쟁과 인센티브 메커니즘이 실현됩니다.
평가 결과의 공정성과 객관성을 보장하는 것은 페럴을 가동하는 핵심 단계입니다. 또한 이것이 바로 Yuma 합의 기반의 추상적 검증 시스템이라는 Bittensor의 핵심 기술입니다.
그렇다면 Yuma 합의란 무엇이며, 어떻게 합의된 후의 품질 평가 결과가 공정하고 객관적임을 보장할 수 있을까요?
Yuma 합의는 다수의 검증자가 제공하는 다양한 평가를 바탕으로 최종 평가 결과를 산출하는 합의 메커니즘입니다. 비잔틴 장애 허용(BFT) 합의 메커니즘과 유사하게, 네트워크 내 다수의 검증자가 정직하다면 결국 올바른 결정을 내릴 수 있습니다. 정직한 검증자들이 객관적인 평가를 제공한다고 가정하면, 합의된 평가 결과 역시 공정하고 객관적이게 됩니다.
서브넷 품질 평가를 예로 들면, 루트넷(Rootnet) 검증자들이 각 서브넷의 출력 품질을 평가하고 순위를 매깁니다. 64명의 검증자로부터 수집된 평가 결과는 Yuma 합의 알고리즘을 통해 최종 평가 결과로 집계되며, 이 결과는 각 서브넷에 새로 발행되는 TAO를 배분하는 데 사용됩니다.
현재로서는 Yuma 합의에도 여전히 개선의 여지가 있습니다:
-
루트넷 검증자들이 모든 TAO 보유자를 충분히 대표하지 못할 수 있으며, 그들의 평가 결과가 반드시 광범위한 관점을 반영하는 것은 아닐 수 있습니다. 또한 일부 상위 검증자들의 평가가 항상 객관적이지는 않을 수 있습니다. 편향이 발견되더라도 즉각 시정되기 어려울 수 있습니다.
-
루트넷 검증자의 존재는 Bittensor가 수용할 수 있는 서브넷 수를 제한합니다. 중앙집중형 AI 거대 기업들과 경쟁하기 위해선 서브넷 32개만으로는 부족합니다. 그러나 현재의 32개 서브넷이라도 루트넷 검증자들이 모두 효과적으로 모니터링하기 어렵습니다.
-
검증자들은 새로운 서브넷으로 이주하려는 강한 동기를 가지지 않을 수 있습니다. 단기적으로, 발행량이 높은 기존 서브넷에서 발행량이 낮은 신규 서브넷으로 이주하면 일부 보상을 잃을 수 있기 때문입니다. 신규 서브넷의 발행량이 나중에 따라잡을 수 있을지 불확실하고, 이 과정에서 명백한 보상 손실이 발생하기 때문에 이주 의지가 낮아집니다.
Bittensor는 이러한 단점을 해결하기 위해 메커니즘 업그레이드를 계획하고 있습니다:
-
동적 TAO(dTAO)는 서브넷 품질 평가 권한을 소수의 검증자에게서 모든 TAO 보유자에게 분산시킬 것입니다. TAO 보유자들은 스테이킹을 통해 간접적으로 각 서브넷의 배분 비율을 결정할 수 있게 됩니다.
-
루트넷 검증자의 제한이 사라짐에 따라 활성화 가능한 최대 서브넷 수는 1024개까지 확대될 것입니다. 이는 신규 팀들이 Bittensor 생태계에 참여하는 진입 장벽을 크게 낮추어 서브넷 간 경쟁을 더욱 치열하게 만들 것입니다.
-
신규 서브넷으로 조기에 이주하는 검증자들에게는 더 높은 보상이 주어질 수 있습니다. 신규 서브넷으로 일찍 이주하면 해당 서브넷의 dTAO를 낮은 가격에 구매할 수 있어, 미래에 더 많은 TAO를 얻을 가능성이 커집니다.
강력한 포용성은 Yuma 합의의 주요 장점 중 하나이기도 합니다. Yuma 합의는 각 서브넷의 발행량을 결정하는 데 사용될 뿐 아니라, 동일한 서브넷 내 각 마이너와 검증자의 배분 비율도 결정합니다. 또한 마이너의 작업 내용이 무엇이든, 컴퓨팅 파워, 데이터, 인간 기여 및 지적 기여 등 포함된 모든 기여는 추상적으로 고려됩니다. 따라서 AI 상품 생산의 어느 단계라도 Bittensor 생태계에 접근해 인센티브를 누릴 수 있으며, 동시에 Bittensor 네트워크의 가치를 강화할 수 있습니다.
다음으로 선도적인 서브넷들을 살펴보며, Bittensor가 이러한 서브넷의 출력을 어떻게 인센티브하는지 확인해보겠습니다.
우수한 서브넷
서브넷 3: Myshell TTS
GitHub에서 계정을 생성하여 myshell ai/MyShell TTS 서브넷 개발에 기여할 수 있습니다.
발행량: 3.46% (2024년 4월 9일 기준)
배경: Myshell은 MIT, 옥스퍼드, 프린스턴 등 저명한 기관 출신 핵심 멤버들로 구성된 Myshell TTS(텍스트 음성 변환) 프로젝트의 팀입니다. Myshell은 프로그래밍 배경이 없는 대학생들도 원하는 봇을 쉽게 만들 수 있도록 하는 노코드 플랫폼 구축을 목표로 하고 있습니다. TTS 분야, 오디오북, 가상 비서에 집중하여 2023년 3월 첫 음성 챗봇 Samantha를 출시했습니다. 제품 매트릭스를 계속 확장하면서 지금까지 백만 명 이상의 등록 사용자를 확보했습니다. 이 플랫폼은 언어 학습, 교육, 유틸리티 봇 등 다양한 유형의 봇을 호스팅하고 있습니다.
포지셔닝: Myshell은 이 서브넷을 통해 전 세계 오픈소스 커뮤니티의 지혜를 결집하여 최고의 오픈소스 TTS 모델을 만드는 것을 목표로 합니다. 즉, Myshell TTS는 모델을 직접 운영하거나 최종 사용자의 요청을 처리하지 않으며, TTS 모델을 학습시키는 네트워크 역할을 합니다.

Myshell TSS 아키텍처
Myshell TTS의 작동 흐름은 위 그림과 같습니다. 마이너는 모델을 학습시키고 학습된 모델을 모델 풀(Model Pool)에 업로드합니다(모델의 메타데이터도 Bittensor 블록체인 네트워크에 저장됨). 검증자는 테스트 케이스를 생성하고 모델 성능을 평가한 후 결과에 따라 점수를 부여합니다. Bittensor 블록체인은 Yuma 합의를 사용해 가중치를 집계하고 각 마이너의 최종 가중치와 배분 비율을 결정합니다.
결론적으로, 마이너는 보상을 유지하기 위해 지속적으로 품질이 더 높은 모델을 제출해야 합니다.
현재 Myshell은 플랫폼에서 Myshell TTS의 모델을 체험해볼 수 있는 데모를 제공하고 있습니다.


Open Kaito 아키텍처
미래에는 Myshell TTS가 학습한 모델이 더욱 신뢰할 수 있게 되면서 더 많은 실제 활용 사례가 등장할 것입니다. 또한 오픈소스 모델로서 Myshell에 국한되지 않고 다른 플랫폼으로도 확장될 수 있습니다. 이런 방식으로 탈중앙화된 방법으로 오픈소스 모델을 학습시키고 인센티브를 주는 것이야말로 우리가 탈중앙화 AI에서 추구하는 목표가 아닐까요?
서브넷 5: Open Kaito
GitHub에서 계정을 생성하여 Open Kaito 개발에 기여할 수 있습니다.
발행량: 4.39% (2024년 4월 9일 기준)
배경: Open Kaito 팀은 Kaito.ai의 배후 팀으로, 핵심 멤버들은 AWS, META, Citadel 등 일류 기업에서 근무한 경험을 가진 AI 분야의 베테랑들입니다. Bittensor 서브넷에 진입하기 전, 그들은 2023년 4분기에 웹3 체인 외부 데이터 검색 엔진인 플래그십 제품 Kaito.ai를 출시했습니다. AI 알고리즘을 활용해 데이터 수집, 순위 알고리즘, 검색 알고리즘 등 검색 엔진의 핵심 컴포넌트를 최적화했으며, 암호화 커뮤니티 내에서 일류 정보 수집 도구로 인정받고 있습니다.
포지셔닝: Open Kaito는 스마트 검색과 분석을 지원하는 탈중앙화 색인 레이어 구축을 목표로 합니다. 검색 엔진은 단순한 데이터베이스나 순위 알고리즘을 넘어서 복잡한 시스템입니다. 게다가 효과적인 검색 엔진은 낮은 지연 시간(Low Latency)도 필요하며, 이는 분산 버전을 구축하는 데 추가적인 도전 과제가 됩니다. 다행히 Bittensor의 인센티브 시스템을 통해 이러한 도전 과제들이 해결될 수 있을 것으로 기대됩니다.

Open Kaito의 작동 과정은 위 그림과 같습니다. Open Kaito는 검색 엔진의 각 구성 요소를 분산시킬 뿐 아니라 색인 문제를 마이너-검증자 문제로 정의합니다. 즉, 마이너가 사용자의 색인 요청에 응답하고, 검증자가 요구사항을 배분하고 마이너의 응답을 평가합니다.
Open Kaito는 마이너가 색인 작업을 어떻게 수행해야 하는지를 제한하지 않고, 마이너 출력의 최종 결과에 초점을 맞춰 혁신적인 해결책을 장려합니다. 이는 마이너 간 건강한 경쟁 환경을 조성하는 데 도움이 됩니다. 사용자의 색인 요청에 직면하여 마이너들은 더 적은 자원으로 더 고품질의 응답을 얻기 위해 실행 계획을 개선하려고 노력합니다.
서브넷 6: Nous Finetuning
GitHub에서 계정을 생성하여 Nous Research/finetuning 서브넷 개발에 기여할 수 있습니다.
발행량: 6.26% (2024년 4월 9일 기준)
배경: Nous Finetuning의 배후 팀은 Nous Research로, 대규모 언어 모델(LLM) 아키텍처, 데이터 합성, 디바이스 내 추론(in-device inference) 연구에 집중하는 팀입니다. 공동 창립자는 Eden Network의 수석 엔지니어를 역임한 바 있습니다.
포지셔닝: Nous Finetuning은 대규모 언어 모델을 미세 조정(fine-tuning)하기 위한 전용 서브넷입니다. 또한 미세 조정에 사용되는 데이터 역시 Bittensor 생태계에서 유래하며, 구체적으로는 서브넷 18에서 제공됩니다.
Nous Finetuning의 작동 과정은 Myshell TSS와 유사합니다. 마이너는 서브넷 18의 데이터를 기반으로 모델을 학습시키고 주기적으로 Hugging Face에 호스팅하기 위해 모델을 출시합니다. 검증자는 모델을 평가하고 점수를 제공하며, Bittensor 블록체인은 Yuma 합의를 사용해 가중치를 집계하고 각 마이너의 최종 가중치와 발행량을 결정합니다.
서브넷 18: Cortex.t
GitHub에서 계정을 생성하여 corcel-api/cortex.t 개발에 기여할 수 있습니다.
발행량: 7.74% (2024년 4월 9일 기준)
배경: Cortex.t의 배후 팀은 Corcel.io이며, Bittensor 네트워크에서 두 번째로 큰 검증자인 Mog의 지지를 받고 있습니다. Corcel.io는 Bittensor 생태계의 AI 제품을 활용해 ChatGPT와 유사한 경험을 제공하는 최종 사용자용 애플리케이션입니다.
포지셔닝: Cortex.t는 최종 사용자에게 결과를 제공하기 직전의 마지막 레이어로 포지셔닝됩니다. 여러 모델을 호출하는 단일 프롬프트 상황에서도 결과가 정확하고 신뢰할 수 있도록 다양한 서브넷의 출력을 감지하고 최적화하는 역할을 합니다. Cortex.t는 빈 출력 또는 불일치하는 출력을 방지하여 원활한 사용자 경험을 보장합니다.
Cortex.t의 마이너는 Bittensor 생태계 내 다른 서브넷을 활용해 최종 사용자의 요청을 처리합니다. 또한 GPT-3.5 Turbo 또는 GPT-4를 사용해 출력 결과를 검증하여 최종 사용자에 대한 신뢰성을 확보합니다. 검증자는 이를 OpenAI가 생성한 결과와 비교하여 마이너의 출력을 평가합니다.
서브넷 19: Vision
GitHub에서 계정을 생성하여 namoray/vision 개발에 기여할 수 있습니다.
발행량: 9.47% (2024년 4월 9일 기준)
배경: Vision의 개발팀 역시 Corcel.io 소속입니다.
포지셔닝: Vision은 DSIS(Distributed Scale Inference Subnet, 분산 규모 추론 서브넷)라는 최적화된 서브넷 구축 프레임워크를 활용해 Bittensor 네트워크의 출력 능력을 극대화하는 것을 목표로 합니다. 이 프레임워크는 검증자에 대한 마이너의 응답 속도를 가속화합니다. 현재 Vision은 이미지 생성 시나리오에 집중하고 있습니다.
검증자는 Corcel.io 프론트엔드에서 요청을 수신하고 이를 마이너에게 분배합니다. 마이너는 자신의 기술 스택(모델에 국한되지 않음)을 자유롭게 선택해 요청을 처리하고 응답을 생성할 수 있습니다. 이후 검증자가 마이너의 성과를 평가합니다. DSIS 덕분에 Vision은 다른 서브넷보다 더 빠르고 효율적으로 이러한 요청에 응답할 수 있습니다.
요약
위 사례들에서 알 수 있듯이, Bittensor는 매우 높은 포용성을 가지고 있습니다. 마이너의 생성과 검증자의 검증은 모두 체인 외부에서 이루어지며, Bittensor 네트워크는 검증자의 평가에 따라 각 마이너에게 보상을 배분하는 용도로만 사용됩니다. 마이너-검증자 아키텍처를 따르는 AI 제품 생성의 어떤 측면이라도 서브넷으로 전환될 수 있습니다.
이론적으로 서브넷 간 경쟁은 치열해야 합니다. 어떤 서브넷이라도 계속 보상을 받기 위해서는 지속적으로 고품질의 출력물을 만들어내야 합니다. 그렇지 않으면 루트넷 검증자들이 해당 서브넷의 출력 가치가 낮다고 판단할 경우 배분량이 줄어들고, 궁극적으로는 새로운 서브넷에 의해 대체될 수 있습니다.
그러나 현실에서는 몇 가지 문제가 관찰되고 있습니다:
-
서브넷 포지셔닝이 유사해 자원의 중복과 낭비가 발생하고 있습니다. 기존 32개 서브넷 중 텍스트-이미지 변환, 텍스트 프롬프트, 가격 예측 등 인기 있는 분야에 집중된 서브넷이 여러 개 있습니다.
-
실제 사용 사례가 없는 서브넷이 존재합니다. 가격 예측 서브넷은 이론적으로 오라클로서 가치를 제공할 수 있지만, 현재 예측 데이터의 성능은 최종 사용자가 실제로 사용할 수 있을 정도로는 훨씬 못 미칩니다.
-
'악화(劣幣)가 양화(良幣)를 구축한다'는 현상이 나타나고 있습니다. 일부 상위 검증자들은 새로운 서브넷으로 이주하려는 경향이 없으며, 새로운 서브넷이 명백히 더 높은 품질을 보여줘도 그렇습니다. 그러나 자금 지원 부족으로 인해 단기적으로 충분한 발행량을 확보하지 못할 수 있습니다. 새로운 서브넷은 단 7일간의 보호 기간만 주어지므로, 충분한 발행량을 빠르게 확보하지 못하면 퇴출 및 종료 위기에 처할 수 있습니다.
이러한 문제들은 서브넷 간 경쟁이 부족하며, 일부 검증자들이 효율적인 경쟁을 촉진하는 역할을 하지 못하고 있음을 반영합니다.
Open Tensor Foundation 검증자(OTF)는 이러한 상황을 완화하기 위해 임시 조치를 시행하고 있습니다. 23%의 스테이킹 권한을 보유한 최대 검증자(위임 포함)인 OTF는 서브넷이 더 많은 스테이킹 TAO를 확보할 수 있는 채널을 제공하고 있습니다. 서브넷 소유자는 매주 OTF에 스테이킹 TAO 비율 조정을 요청할 수 있으며, 이 요청은 "서브넷 목표 및 Bittensor 생태계 기여", "서브넷 보상 메커니즘", "통신 프로토콜 설계", "데이터 출처 및 보안", "컴퓨팅 요구사항", "로드맵" 등 10가지 항목을 포함해야 하며, 이는 OTF의 최종 결정을 돕기 위함입니다.
그러나 근본적인 해결을 위해서는 한편으로 dTAO(동적 TAO)의 조속한 도입이 절실히 필요하며, 이는 위에서 언급한 부당한 문제들을 근본적으로 변화시킬 수 있습니다. 혹은, 많은 스테이킹 TAO를 보유한 대형 검증자들이 단지 '재무적 수익' 관점이 아니라 '생태계 발전' 관점에서 Bittensor 생태계의 장기적 발전을 더 많이 고려해줄 것을 촉구할 수도 있습니다.
요약하면, 강력한 포용성, 치열한 경쟁 환경, 효과적인 인센티브 메커니즘을 갖춘 Bittensor 생태계는 고품질의 인공지능 제품을 유기적으로 생산할 수 있다고 믿습니다. 기존 서브넷의 모든 출력물이 중앙집중형 제품과 견줄 수 없다고 해도, 현재의 Bittensor 아키텍처가 막 1주년을 맞이했다는 사실을 잊지 말아야 합니다(서브넷 1은 2023년 4월 13일 등록). 중앙집중형 AI 거대 기업들과 경쟁할 잠재력을 가진 플랫폼에 대해, 단지 단점을 비판하기보다는 실질적인 개선 계획을 제시하는 데 집중해야 할 것입니다. 결국 우리는 AI가 소수의 거대 기업들에 의해 계속해서 장악되는 것을 원하지 않기 때문입니다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News














