
HTX Research丨Bittensor의 진화: dTAO가 시장 인센티브 메커니즘을 통해 오픈소스 AI 생태계를 재편하다
저자: Chloe Zheng

리드시퀀스(Sequoia Capital)가 2023년에 발표한 연구에 따르면, 개발자의 85%는 모델을 처음부터 훈련시키기보다 기존 모델을 미세 조정(fine-tuning)하는 것을 선호한다. 최근의 추세는 이를 더욱 입증하고 있다. DeepSeek는 모델을 오픈소스화하고 모델 증류(model distillation) 기술을 도입하여, 대규모 모델인 교사 모델(teacher model)이 추론 로직을 소규모 모델인 학생 모델(student model)로 전달함으로써 지식 압축과 성능 유지의 최적화를 실현했다. 마찬가지로 OpenAI의 ChatGPT O3 버전도 후속 훈련 및 강화 학습(reinforcement learning)을 강조하고 있다. Bittensor는 AI 모델의 협업과 공유를 지원하는 개방적이고 탈중앙화된 플랫폼을 제공한다. 2024년 7월, Bittensor와 Cerebras는 Hugging Face에서 16,000회 이상 다운로드되며 Bittensor의 기술 역량을 충분히 입증한 BTLM-3b-8k 오픈소스 대규모 언어 모델(LLM)을 공동으로 출시했다.
Bittensor는 2021년 출시되었지만, 2024년 4분기의 AI 에이전트 열풍 속에서도 거의 주목받지 못했고 토큰 가격 또한 장기간 정체 상태였다. 그러나 2025년 2월 13일, Bittensor는 토큰 발행을 최적화하고 공정성과 유동성을 높이기 위한 dTAO 업그레이드를 발표했다. 이 변화는 Virtuals Protocol이 AI 에이전트 LaunchPad를 출시하여 $VIRTUAL의 시가총액이 2024년에 무려 50배 급등한 사례와 유사하다.
보고서 「dTAO와 Bittensor의 진화: 시장 기반 인센티브로 재편되는 오픈소스 AI 생태계」는 2월 13일 완료된 dTAO 업그레이드가 Bittensor 생태계에 미치는 영향을 심층적으로 분석하며, 그 아키텍처 혁신, 경제 모델, 그리고 전체 생태계 역학을 중점적으로 다룬다.

Bittensor 시스템 내 계정 수는 2024년 초 10만 개에서 약 20만 개로 100% 증가했다.
1. Bittensor의 기본 아키텍처
Bittensor 시스템은 다음 세 가지 주요 모듈로 구성된다:
-
서브텐서(Subtensor) 병렬 체인 및 EVM 호환 계층(tao evm): 서브텐서는 폴카닷(Polkadot)의 Substrate SDK 기반으로 개발된 레이어1 블록체인으로, Bittensor 네트워크의 블록체인 계층을 관리한다. 해당 EVM 호환 계층(tao evm)은 개발자가 네트워크 상에서 이더리움 스마트 컨트랙트를 배포하고 실행할 수 있게 하여 시스템의 확장성과 호환성을 강화한다. 서브텐서 블록체인은 12초마다 블록을 생성하며, 각 블록마다 1개의 TAO 토큰이 생성된다. 또한 서브텐서는 검증자의 평가 가중치 및 스테이킹 토큰 수량 등 서브넷 내 주요 활동을 기록한다. 360개의 블록(약 72분)마다 유마(Yuma) 합의 알고리즘을 통해 64개 서브넷이 받는 토큰 보상(emissions)을 계산한다.
-
서브넷(Subnets): Bittensor 네트워크는 64개의 서브넷을 포함하며, 각 서브넷은 특정 유형의 AI 모델이나 응용 사례에 집중한다. 이러한 모듈화 구조는 네트워크의 효율성과 성능을 향상시키고 다양한 AI 모델의 전문화 발전을 촉진한다. 각 서브넷의 인센티브 메커니즘은 서브넷 소유자가 설정하며, 광부와 검증자 간 토큰 배분 방식을 결정한다. 예를 들어, 서브넷 1은 Opentensor 재단이 운영하며, 주요 과제는 텍스트 프롬프팅(Text Prompting)이다. 이 서브넷에서 검증자는 ChatGPT와 유사한 프롬프트를 제공하고, 광부들은 프롬프트에 따라 답변을 생성한다. 검증자는 광부들의 답변 품질에 따라 순위를 매기고 정기적으로 가중치를 업데이트하여 서브텐서 블록체인에 업로드한다. 블록체인은 360블록마다 유마 합의를 수행하고 서브넷의 토큰 보상을 분배한다.
-
루트 서브넷(Root Subnet): 네트워크의 핵심으로서, 모든 서브넷의 운영을 조정하고 관리하여 전체적인 조화와 안정성을 보장한다.
또한 Bittensor API는 서브넷 검증자와 서브텐서 블록체인 상의 유마 합의 사이에서 전송 및 연결 기능을 수행한다. 동일한 서브넷 내의 검증자는 같은 서브넷의 광부들만 연결되며, 서로 다른 서브넷의 검증자와 광부들은 서로 통신하거나 연결되지 않는다.
이러한 아키텍처 설계는 Bittensor가 블록체인 기술과 인공지능을 효과적으로 통합하여 탈중앙화되고 효율적인 AI 생태계를 창출할 수 있도록 한다.

서브텐서 EVM 호환 계층 tao evm은 2024년 12월 30일 정식으로 출시되었으며, 이더리움 스마트 컨트랙트를 수정하지 않고도 서브텐서 블록체인에 배포하고 상호작용할 수 있다. 동시에 모든 EVM 작업은 서브텐서 블록체인에서만 실행되며 이더리움과는 상호작용하지 않는다. 즉, Bittensor 상의 스마트 컨트랙트는 Bittensor 네트워크에 한정되며 이더리움 메인넷과는 무관하다. 현재 tao evm은 여전히 초기 단계에 있으며, TaoFi 같은 생태계 프로젝트가 TAO로 지원되는 최초의 스테이블코인, 탈중앙화 거래소, TAO 토큰 유동성 스테이킹 버전 등을 포함한 AI 기반 DeFi 인프라 개발을 계획하고 있다.

1.1 계정 시스템
1.1.1 Coldkey-Hotkey 이중 키 시스템
dTAO의 계정 시스템은 더 높은 보안성과 유연성을 위해 Coldkey-Hotkey 이중 키 메커니즘을 채택한다. 사용자가 지갑을 생성할 때 Chrome 확장 프로그램 또는 로컬 방식으로 지갑을 생성할 수 있다. Chrome 확장 프로그램으로 생성한 지갑은 TAO 저장, 송금, 수취 용도이며, 시스템은 coldkey(48자 문자열, 일반적으로 5로 시작)와 12단어 니모닉(mnemonic)을 생성한다. 로컬 방식으로 생성한 지갑은 coldkey 외에도 hotkey를 생성하며, hotkey는 서브넷 생성, 채굴, 검증 등의 작업에 사용된다.
Coldkey-Hotkey 이중 키 시스템을 채택하는 주요 이유는 hotkey가 서브넷 일상 운영에서 자주 사용되어 잠재적인 보안 위협에 노출되기 때문이며, 반면 coldkey는 주로 TAO 저장 및 이전에 사용되어 TAO 손실 위험을 효과적으로 줄일 수 있기 때문이다. 이러한 이중 보호 메커니즘은 계정 작업의 보안성과 유연성을 보장한다.
바인딩 관계에서는 하나의 hotkey가 동일 서브넷 내 하나의 coldkey에 바인딩될 수 있으며, 다른 서브넷의 coldkey에도 바인딩할 수 있으나 권장되지는 않는다. 하나의 coldkey는 여러 hotkey에 바인딩될 수 있다.
1.1.2 서브넷 UID 시스템
1.1.2.1 서브넷 UID 생성
최소 100 TAO의 등록 수수료를 지불하면 시스템은 서브넷 UID를 생성하고 사용자의 hotkey에 바인딩한다. 이 UID는 서브넷 채굴 또는 검증에 참여하기 위한 필수 자격 증명이다. 채굴자가 되기 위해서는 hotkey, coldkey, 서브넷 UID만 있으면 되며, Bittensor를 실행함으로써 채굴에 참여할 수 있다.
1.1.2.2 검증자가 되기 위한 요구사항
검증자가 되기 위해서는 최소 1,000 TAO를 스테이킹 해야 하며, 각 서브넷에서 스테이킹 양이 상위 64위 안에 들어야 한다. 참고로 검증자는 여러 UID 슬롯을 동시에 보유할 수 있어, 추가 스테이킹 없이 여러 서브넷에서 검증 작업을 수행할 수 있다(restaking 개념과 유사). 이러한 메커니즘은 악의적인 행위를 하는 리스크를 낮추고 비용을 높이는 데 기여한다. 고액의 TAO(최소 1,000 TAO)를 스테이킹함으로써 악행의 대가가 크게 증가하기 때문이다. 서브넷 내 경쟁력을 높이기 위해 각 검증자는 좋은 평판과 실적을 쌓아 더 많은 TAO 위임을 유치하려 노력하며, 이는 상위 64위 위치를 안정적으로 유지하는 데 도움이 된다.
1.1.2.3 서브넷 구조 및 용량 제한
-
서브넷 1: 총 1,024개의 UID 슬롯을 보유하며, 최대 128명의 검증자를 수용할 수 있다. 검증자와 광부의 총 수는 1,024명을 초과할 수 없다.
-
기타 서브넷: 각 서브넷은 256개의 UID 슬롯을 보유하며, 최대 64명의 검증자를 수용할 수 있다. 각 서브넷 내 검증자와 광부의 총 수는 256명을 초과할 수 없다.
1.1.2.4 서브넷 경쟁 및 인센티브 메커니즘
서브넷 내에서 검증자는 광부들에게 과제를 할당하고, 모든 광부가 과제를 완료한 후 결과를 해당 검증자에게 제출한다. 검증자는 각 광부의 과제 수행 품질을 평가하고 순위를 매기며, 광부는 작업 품질에 따라 TAO 보상을 받는다. 동시에 검증자도 고품질 광부들이 더 나은 보상을 받도록 함으로써 인센티브 보상을 받게 되어, 서브넷 전체의 품질 향상을 지속적으로 추진하게 된다. 이러한 일련의 경쟁 과정은 서브넷 생성자가 설계한 코드 기반 인센티브 메커니즘에 의해 자동으로 실행되어 시스템의 공정성과 효율성을 보장한다.
각 서브넷은 등록 후 7일간의 보호 기간(면역 기간)을 갖는다. 이 기간 동안 광부는 보상을 누적한다. 보호 기간 중 새로운 광부가 등록하되 서브넷의 UID 슬롯이 이미 만료된 경우, 누적 보상이 가장 적은 광부가 탈락하고 그 UID는 새로 등록한 광부에게 재할당된다.

1.2 서브넷이 다층적 생태계를 구축하다
Bittensor 서브넷은 다층적인 생태계를 형성하며, 광부, 검증자, 서브넷 생성자, 소비자가 각자의 역할을 수행함으로써 고품질 AI 서비스의 생성을 공동으로 추진한다.
광부(Miners): 네트워크의 핵심 컴퓨팅 노드로서, 광부는 AI 모델을 호스팅하고 추론 및 훈련 서비스를 제공한다. 그들은 손실 함수를 최소화하고 피어 투 피어 평가에서 경쟁함으로써 TAO 보상을 획득한다. 광부의 성공 여부는 제공하는 서비스의 품질과 성능에 달려 있다.
검증자(Validators): 검증자는 광부들이 제출한 작업 결과를 평가하고 신뢰 매트릭스(trust matrix)를 구성하여 공모(co-conspiracy) 및 부정행위를 방지하며 우수한 광부들이 더 높은 보상을 받도록 보장한다. 그들은 광부의 응답 품질에 따라 순위를 매기며, 순위가 정확하고 일관될수록 더 많은 보상을 받는다.
서브넷 생성자(Subnet Creators): 서브넷 생성자는 자연어 처리, 컴퓨터 비전 등 특정 응용 분야의 요구에 따라 맞춤형 서브넷을 설계하며, 독립된 합의 메커니즘, 작업 프로세스, 인센티브 구조를 구축한다. 그들은 네트워크 관리자의 역할을 맡으며, 각각의 서브넷을 통해 인센티브를 배분할 수 있는 권한을 갖는다.
소비자(Consumers): 소비자는 TAO 토큰을 지불하여 AI 서비스를 호출함으로써 API 조회, 훈련 데이터 확보, 모델 훈련을 위한 컴퓨팅 리소스 활용 등의 목적을 달성한다. 그들은 Bittensor가 제공하는 AI 모델의 최종 사용자이다.
전체 프로세스는 다음과 같다: 서브넷 검증자가 문제를 생성하여 모든 광부에게 분배하고, 광부들은 과제에 따라 답변을 생성하여 검증자에게 반환한다. 검증자는 답변 품질에 따라 점수를 매기고 광부의 가중치를 업데이트한 후 정기적으로 체인에 업로드한다. 치열한 경쟁과 승자독식 메커니즘을 통해 서브넷 내 AI 모델의 기술 발전과 생태계 최적화를 지속적으로 추진한다.
1.2.1 광부 계층
광부는 Bittensor 네트워크에서 핵심 컴퓨팅 노드의 역할을 하며, 주요 책임은 다음과 같다:
-
AI 모델을 호스팅하고 추론 또는 훈련 서비스를 제공: 광부는 로컬 머신러닝 모델을 호스팅함으로써 클라이언트 애플리케이션에 예측 서비스를 제공한다. 클라이언트가 예측을 필요로 할 때 Bittensor 네트워크에 요청을 보내며, 네트워크는 이를 서비스 제공자로 등록된 광부에게 라우팅한다. 광부는 요청을 처리하고 예측 결과를 클라이언트에게 반환한다.
-
P2P 순위 경쟁을 통해 TAO 토큰을 계산 인센티브로 획득: 광부는 모델 성능과 네트워크 기여도에 따라 피어 투 피어 순위에서 경쟁하여 TAO 토큰 보상을 획득한다. 이러한 인센티브 메커니즘은 광부들이 지속적으로 모델 성능을 최적화하고 고품질 AI 서비스를 제공하도록 유도한다.
-
고품질 AI 모델 기여 보장: 광부는 네트워크 수요를 충족시키고 서비스 품질을 보장하기 위해 고품질 AI 모델을 제공하려 노력한다. 이는 그들이 네트워크에서 더 높은 순위와 보상을 얻는 데 도움이 될 뿐 아니라 Bittensor 네트워크 전체의 성능과 신뢰성도 향상시킨다.
이러한 책임을 수행함으로써 광부는 Bittensor 네트워크의 효율적 운영과 발전에 중요한 기여를 한다.
각 광부는 데이터셋 D에서 손실 함수 Li=EDQfix를 최소화하기 위해 훈련된다.
여기서:
-
Qfix는 오차 함수(error function)
-
ED는 데이터셋 D에 대한 기댓값(expected value)
예를 들어, 광부 A가 음성 인식 모델 fAx를 제공하는 경우, 그의 손실 함수는 다음과 같을 수 있다:

낮은 LA(즉, 더 나은 모델 성능)는 P2P 평가에서 더 높은 순위로 이어진다.
각 광부의 기여도는 피셔 정보 척도(FIM): Ri=WT·S로 측정된다.
여기서:
-
W는 광부들 간의 P2P 점수 가중치 행렬을 나타낸다.
-
S는 광부가 네트워크에 스테이킹한 양(보유량)이다.
광부 A와 광부 B가 서로 점수를 매긴다면, 가중치 행렬은 다음과 같다:

광부 A의 최종 순위는 다음과 같다:

광부 A가 고품질 AI 모델을 보유하고 있다면 wB,A 값이 높아져 RA 값이 증가하고, 더 많은 보상을 받게 된다.
검증자 계층
검증자는 광부의 AI 모델을 공정하게 평가하여 공모 및 악의적인 행위를 방지한다. 그들은 네트워크 내 "심판" 역할을 하며 고품질 AI 서비스를 보장한다.
검증자는 신뢰 매트릭스를 계산하여 광부들을 순위 매긴다:

-
ci는 광부 i의 신뢰 점수이다.
-
tj,i는 광부 j가 광부 i에게 부여한 신뢰도이다.
-
sj는 광부 j의 스테이킹 양이다.
-
는 Sigmoid 함수로, 부드러운 스케일링을 위해 사용된다.
예를 들어, 네트워크에 광부 A, B, C가 있고, 신뢰 매트릭스가 다음과 같다고 가정하자:

-
광부 A의 모델 성능이 좋다면 광부 B와 C 모두 A를 높게 신뢰한다.
-
광부 C의 모델이 평범하다면 광부 B만 약간 신뢰한다.
따라서 광부 A는 더 높은 신뢰 점수 cA를 받아 더 많은 보상을 받게 되며, 광부 C는 점수가 낮아진다.
1.2.2 소비자 계층
Bittensor 네트워크에서 소비자는 최종 사용자 또는 기업을 의미하며, TAO 토큰을 지불함으로써 광부들이 제공하는 인공지능(AI) 서비스에 접근한다. 이러한 모델은 사용자가 자체 AI 모델을 소유하거나 유지할 필요 없이 네트워크 내 AI 능력을 활용할 수 있게 하며, AI 컴퓨팅 비용을 낮춘다.
소비자의 구체적인 응용 사례는 다음과 같다:
-
개발자 AI API 조회: 개발자는 Bittensor가 제공하는 AI 인터페이스를 호출하여 필요한 지능형 서비스를 앱 개발 또는 기능 통합에 활용할 수 있다.
-
연구기관 AI 훈련 데이터셋 접근: 연구기관은 네트워크 내 리소스를 활용하여 대규모 AI 훈련 데이터셋에 접근하고 분석함으로써 연구 프로젝트 및 실험을 지원할 수 있다.
-
기업이 Bittensor의 컴퓨팅 리소스를 활용해 AI 모델 훈련: 기업은 Bittensor의 탈중앙화 컴퓨팅 리소스를 활용하여 자체 AI 모델을 훈련하고 최적화함으로써 비즈니스 지능화 수준을 높일 수 있다.
이러한 방식을 통해 Bittensor는 소비자에게 유연하고 효율적인 AI 서비스 접근 경로를 제공하며, 인공지능의 보급과 응용을 촉진한다.
1.2.3 스테이킹 기반 합의 메커니즘
Bittensor의 스테이킹 기반 합의 메커니즘은 주로 다음 문제를 해결한다:
-
악의적인 점수操縱 방지 및 공정한 평가 보장: 반복적으로 수정(w==fw)하여 지분 가중 평균(w)에서 지나치게 벗어난 가중치를 조정함으로써 상대방의 과도한 자기평가 영향을 줄인다.
-
고품질 AI 기여자 보상: 지속적으로 고품질 출력을 제공하는 검증자는 가중치 수정 후에도 높은 순위를 유지하는데, 이는 그들이 보고한 가중치가 합의값에 근접하기 때문이다.
지분 기반 게임 모델
우리는 합의 모델을 2인 게임으로 간주한다:
-
정직한 당사자(주인공) 스테이킹: SHwith 0.5
-
대항 당사자(상대) 스테이킹: 1-SH
양측은 고정된 총 보상 eH+eC=1을 두고 경쟁하며, 여기서 eH와 eC는 각각 정직한 당사자와 대항 당사자의 보상이다.
보상 배분 후, 스테이킹 양은 다음과 같이 업데이트된다:

정직한 당사자는 자신에게 객관적 가중치 wH를 할당하고 1-wH를 상대에게 할당한다.
반면, 상대는 자신의 자기할당 가중치 wC를 자유롭게 선택할 수 있으며, 비용 없이 정직한 당사자의 가중치 지출을 최대화하려 한다:

경기의 심사위원을 상상해보자. 정직한 심사는 공정한 점수를 주지만, 악의적인 심사(상대)는 선호하는 참가자에게 인위적으로 높은 점수를 부여하여 정직한 당사자가 경쟁력을 유지하기 위해 더 많은 노력을 기울이도록 강요할 수 있다.
정직한 당사자의 지분이 다수(sH>0.5)이므로, 사용자 정체성이 알려지지 않은 상태에서 모든 가중치를 조정하여 내쉬 균형(Nash equilibrium)을 최적화하는 익명 합의 전략 π를 시행할 수 있다:

목표는 다음과 같이 수정된 가중치를 만족시키는 것이다:

이를 통해 오차를 수정한다.

기본 합의 전략은 다음과 같이 정의된다:

여기서 합의 가중치 w는 지분 가중 평균값이다:

그런 다음 이 전략을 반복적으로 적용한다:

여기서 는 반복 횟수이다.
이를 정밀하게 교정된 저울에 비유할 수 있다. 한쪽의 무게가 너무 무겁다면 시스템은 균형이 회복될 때까지 반복적으로 조정한다. 예를 들어, SH=0.6이고 초기 wH=1일 때, 여러 번의 반복 후에도 상대가 높은 wC(예: wC=0.8)를 보고한다 하더라도 정직한 당사자의 실제 지출은 0.75 미만으로 낮아진다.

1.2.3.1 부드러운 처리 및 밀도 진화
급격한 수정으로 인한 시스템 불안정을 방지하기 위해 수정 함수는 "부드러운 처리(smoothing)"를 채택한다. 우리는 지분 가중 평균 절대 편차를 다음과 같이 정의한다:

그런 다음 부드러운 수정은 다음 공식에 의해 주어진다:

여기서 (매개변수 (0≤α<1)에 의해 제어됨)는 부드러움 정도를 결정한다.
이러한 부드러운 조정은 운전자가 급정거보다는 부드럽게 브레이크를 밟는 것과 유사하다. 이러한 점진적 수정 방식은 작은 가중치 차이를 온화하게 조정하여 시스템의 전반적 안정성을 유지한다.
쌍팀 게임으로 확장할 경우(|H|는 정직한 플레이어 수, |C|는 대항적 플레이어 수), 각 팀의 가중치 분포는 밀도 함수 pw로 설명할 수 있다. 예를 들어, 정직한 플레이어의 경우 가중치가 정규분포를 따른다고 가정하면:

대항적 플레이어의 분포도 마찬가지이다. 정직과 대항 팀의 전체 밀도 분포는 다음과 같다:

그런 다음 밀도 진화 함수를 적용한다:

여기서 gw=f-1w. η라운드 반복 후, 각 플레이어의 최종 순위는: r_i = \int f^\eta\Bigl(p_i(w)\Bigr)\, dw .

이 과정은 대규모 데이터셋에 대한 통계적 평활화 작업과 유사하다. 여러 라운드의 "평활화" 처리 후, 각 참여자의 진정한 순위가 드러난다. 핵심은 밀도 진화가 이상 가중치(즉, 악의적 플레이어의 과도한 가중치)를 더 많이 압축하는 반면 정직한 플레이어에는 덜한 영향을 준다는 점이다.
1.2.3.2 가중치 신뢰 메커니즘 및 제로 가중치 취약점 방지
대항적 플레이어가 처벌을 피하기 위해 제로 가까운 가중치를 보고하는 것을 방지하기 위해 가중치 신뢰 메커니즘이 도입되었다. 신뢰값 T를 다음과 같이 정의한다: T=(W>0)S
즉, 비제로 가중치에 할당된 총 지분이다. 그런 다음 부드러운 임계값을 적용한다:
C = \Bigl(1+\exp\bigl(-\rho (T-\kappa)\bigr)\Bigr)^{-1}.
이 메커니즘은 다수의 구성원이 특정 노드의 가중치를 제로라고 판단하면 그 보상이 크게 감소하도록 보장한다.
이는 커뮤니티 평판 시스템과 유사하다—다수의 구성원이 특정 인물을 신뢰한다고 인정해야만 그는 전 보상을 받을 수 있다. 그렇지 않으면 제로 가중치를 보고함으로써 시스템을 조작하려는 시도는 처벌받는다.
현재 직면한 과제는 다음과 같다:
-
제로 가중치 취약점: 대항적 플레이어가 매우 낮거나 제로 가중치를 보고하여 보상 배분의 허점을 이용할 수 있다.
-
수정 불균형: 어떤 경우에는 수정이 지나치게 급진적이거나 지나치게 온건하여 합의 편차를 초래할 수 있다.
-
높은 계산 복잡도: 밀도 진화와 다중 반복은 On2 계산량을 수반하여 블록체인 환경에 부담을 줄 수 있다.
dtao 업그레이드는 이러한 문제를 개선했으며, 구체적인 내용은 다음과 같다:
-
반복 및 부드러운 처리 최적화: 반복 횟수 η를 늘리고 부드러움 매개변수 α 또는 δ를 정밀하게 조정하여 제로 가중치 취약점을 줄이고 과도한 수정을 방지한다.
-
가중치 신뢰 메커니즘 강화: 비제로 가중치를 보다 정밀하게 감지하고 더 엄격한 임계값을 적용하여 오직 다수의 구성원이 인정하는 노드만이 전 보상을 받을 수 있도록 한다.
-
계산 비용 감소: 알고리즘 최적화를 통해 계산 비용을 줄여 블록체인 계산 제약에 적응하면서도 이론적 정확성에는 영향을 주지 않는다.
Bittensor의 지분 기반 합의 메커니즘은 수학 모델과 게임 이론 도구를 결합하여 업데이트 공식, 가중 평균 합의, 반복 수정, 밀도 진화 등의 방법을 통해 이상 가중치 편차를 자동으로 교정하고 공정한 최종 보상 배분을 보장한다.
이 과정은 지능형 균형 시스템 또는 평판 메커니즘과 유사하며, 지속적으로 자기 교정하여 공정한 평가, 우수한 기여자 인센티브 제공, 악의적 공모 및 투표 조작 방지를 실현한다.
이 기반 위에서 dtao 업그레이드는 더 섬세한 부드러움 제어와 개선된 가중치 신뢰 전략을 채택하여 시스템의 강건성과 공정성을 더욱 향상시켰다. 따라서 대항적 환경에서도 정직한 기여자는 항상 경쟁 우위를 유지할 수 있으며, 전체 계산 자원 소모도 최적화되고 감소되었다.
2. 유마 합의(Yuma Consensus): 동적이고 프로그래머블한 인센티브 및 합의
비트코인은 누구나 로컬 컴퓨팅 능력을 기여하여 글로벌 원장을 유지할 수 있는 세계 최대의 P2P 컴퓨팅 네트워크를 구축했다. 그 인센티브 규칙은 설계 당시에 이미 고정되어 생태계가 상대적으로 정적 방식으로 발전하게 된다.
반면, 유마 합의(YC)는 동적이고 프로그래머블한 인센티브 프레임워크이다. 비트코인의 정적 인센티브 메커니즘과 달리 YC는 목표 함수, 스테이킹 보상, 가중치 조정 메커니즘을 직접 합의 과정에 통합한다. 즉, 시스템이 고정된 규칙에만 의존하는 것이 아니라 노드의 실제 기여와 행동에 따라 동적으로 조정되므로 더 공정하고 효율적인 보상 배분을 실현할 수 있다.
YC 합의 알고리즘은 서브텐서 블록체인에서 지속적으로 실행되며 각 서브넷에서 독립적으로 작동한다. 주요 작업 흐름은 다음 구성 요소를 포함한다:
-
서브넷 검증자의 가중치 벡터: 각 서브넷 검증자는 가중치 벡터를 유지하며, 각 요소는 해당 검증자가 모든 서브넷 광부에게 부여한 평가 가중치를 나타낸다. 이 가중치는 검증자의 과거 실적에 기반하여 광부 순위를 매기는 데 사용된다. 예를 들어, 특정 검증자의 평가 벡터가 w=wn이라면, 산출된 순위는 해당 검증자가 각 광부의 기여 수준을 어떻게 평가했는지를 반영한다.
-
스테이킹 금액의 영향: 체인 상의 각 검증자와 광부는 일정량의 토큰을 스테이킹한다. YC 합의는 가중치 벡터와 스테이킹 금액을 결합하여 보상 배분을 계산한다. 즉, 최종 보상은 평가 가중치뿐만 아니라 스테이킹 수량에도 달려 있으며, "스테이킹 → 가중치 → 보상"이라는 폐쇄 루프를 형성한다.
-
동적 주관적 합의: 각 참여자는 자신의 머신러닝 모델에 로컬 가중치를 할당한다. 이러한 로컬 가중치는 합의 전략을 통해 조정된 후 블록체인에서 글로벌 지표로 집계된다. 즉, YC는 대항적 환경에서도 대규모 합의를 실현하고 노드 행동 변화에 동적으로 적응할 수 있다.
-
보상 계산 및 배분: 서브넷 검증자는 각자의 순위 결과를 수집하여 YC 알고리즘의 집단 입력으로 제출한다. 서로 다른 검증자의 순위가 서로 다른 시간에 도착할 수 있지만, 서브텐서는 약 12초마다 모든 순위 데이터를 처리한다. 이러한 데이터를 기반으로 시스템은 보상(TAO 기준)을 계산하여 서브넷 광부와 검증자의 지갑에 입금한다.
이러한 종합 메커니즘은 YC가 탈중앙화 네트워크에서 지속적이고 공정하게 보상을 배분하며 기여 품질에 동적으로 적응하고 전체 네트워크의 보안성과 효율성을 유지할 수 있도록 한다.
2.1 지식 증류 및 전문가 혼합(MoE): 협력적 학습 및 효율적 기여 평가
2.1.1 지식 증류(Digital Hivemind)
Bittensor는 지식 증류 개념을 도입했는데, 이는 인간 뇌의 뉴런들이 협력하는 것과 유사하며, 노드들이 지식 공유, 데이터 샘플 및 모델 파라미터 교환을 통해 집단적으로 학습한다.
이 과정에서 노드는 지속적으로 데이터와 모델 파라미터를 교환하며 시간이 지남에 따라 스스로 최적화되는 네트워크를 형성하여 더 정확한 예측을 실현한다. 각 노드는 자신의 지식을 공유 풀에 기여하여 결국 전체 네트워크의 성능을 향상시키며, 더 빠르고 로봇공학 및 자율주행과 같은 실시간 학습 응용에 적합하게 된다.

핵심은 이 방법이 재앙적 망각(catastrophic forgetting)의 위험을 효과적으로 완화한다는 점이다—이것은 머신러닝에서 흔한 도전이다. 노드는 기존 지식을 유지하고 확장하면서 새로운 통찰력을 융합할 수 있어 네트워크의 강건성과 적응성을 강화한다.
지식을 여러 노드에 분산함으로써 Bittensor TAO 네트워크는 간섭 및 잠재적 데이터 유출에 대해 더욱 탄력적이 된다. 이러한 강건성은 금융 및 의료 정보와 같이 높은 보안성과 개인정보 보호가 요구되는 응용 분야에 특히 중요하다.

2.1.2 전문가 혼합(MoE)
Bittensor는 분산 전문가 모델(MoE)을 채택하여 AI 예측을 최적화하고, 여러 전문화된 AI 모델의 협업을 통해 복잡한 문제 해결의 정확성과 효율성을 크게 향상시킨다. 예를 들어, 스페인어 주석이 포함된 Python 코드를 생성할 때, 다국어 모델과 코드 전문 모델이 협력하여 단일 모델보다 훨씬 더 고품질의 결과를 산출할 수 있다.

Bittensor 프로토콜의 핵심은 일반적으로 뉴런(neuron)이라고 불리는 매개변수화 함수로 구성되며, 이 뉴런들은 P2P 방식으로 분산되어 각 뉴런은 제로 개 또는 여러 개의 네트워크 가중치를 기록하며, 인접 노드의 가치를 평가하기 위해 뉴런 간 순위 매기기를 통해 신경망을 훈련시키고, 순위 점수를 디지털 원장에 누적한다. 순위가 높은 노드는 통화 보상뿐만 아니라 추가 가중치도 받으며, 이는 노드 기여도와 보상 사이에 직접적인 연계를 만들어 네트워크의 공정성과 투명성을 향상시킨다. 이 메커니즘은 다른 지능 시스템이 인터넷을 통해 P2P 방식으로 정보에 가격을 매기고 각 노드가 자신의 지식과 전문성을 지속적으로 향상하도록 인센티브를 제공하는 시장을 구축한다. 보상의 공정한 배분을 보장하기 위해 Bittensor는 협력 게임 이론에서 셰플리 값(Shapley value)을 활용하여 노드 기여도에 따라 보상을 효율적으로 배분하는 방법을 제공한다. YC 합의 하에서 검증자는 각 전문 모델을 평가하고 순위를 매기며 셰플리 값 원칙에 따라 보상을 공정하게 배분함으로써 네트워크의 보안성, 효율성 및 지속적인 개선 능력을 더욱 향상시킨다.
3. dtao 업그레이드
Bittensor 프로젝트는 자원 배분 및 경제 모델 설계에서 다음과 같은 주요 문제를 가지고 있다:
-
자원 중복 및 낭비: 여러 서브넷이 텍스트-이미지 생성, 텍스트 프롬프팅, 가격 예측 등 유사한 작업에 집중하여 자원 배분의 중복과 낭비를 초래한다.
-
실제 사례 부족: 일부 서브넷(예: 가격 예측 또는 스포츠 이벤트 결과 예측)은 현실 시나리오에서 실용성을 입증하지 못해 자원 투입과 실제 수요가 불일치할 수 있다.
-
"열등한 화폐가 우수한 화폐를 몰아낸다" 현상: 고품질 서브넷은 충분한 자금과 발전 공간을 확보하기 어려울 수 있다. 겨우 7일의 보호 기간 때문에 루트 검증자의 충분한 지원을 받지 못한 서브넷은 조기에 퇴출될 수 있다.
-
검증자 중심화 및 신규 서브넷 인센티브 부족:
-
루트 검증자는 모든 TAO 보유자를 완전히 대표하지 못할 수 있으며, 그들의 평가 결과는 광범위한 의견을 반영하지 않을 수 있다. 유마 합의 하에서 최상위 검증자가 최종 평가에서 주도권을 행사하지만, 그들의 평가가 항상 객관적인 것은 아니다. 편향을 발견하더라도 즉시 바로잡을 수 없는 경우가 있다.
-
또한 검증자는 신규 서브넷으로 이전할 인센티브가 부족하다. 고배당률을 가진 기존 서브넷에서 저배당률의 신규 서브넷으로 이전하면 즉각적인 보상 손실이 발생할 수 있기 때문이다. 신규 서브넷이 기존 서브넷의 토큰 배당량에 도달할 수 있을지 불확실한 점은 그들의 이전 의욕을 더욱 저하시킨다.
경제 모델의 주요 문제:
Bittensor의 메커니즘 설계에서 주요 문제는 모든 참가자가 TAO를 획득하지만 실제로 누구도 TAO를 지불하지 않는다는 점이다. 이는 지속적인 매도 압박을 초래한다. 현재 광부가 답변하는 질문은 실제 사용자에 의해 제기되는 것이 아니라 서브넷 소유자가 제공하는 것으로, 실제 사용자 쿼리를 시뮬레이션하거나 역사적 사용자 수요를 기반으로 한다. 따라서 광부의 답변이 가치가 있다고 하더라도 그 가치는 서브넷 소유자가 포획한다. 광부의 답변이 서브넷 소유자의 모델 알고리즘 개선에 도움이 되든, 서브넷 소유자가 직접 모델 훈련에 활용하여 제품을 개선하든, 광부와 검증자의 작업에서 창출된 가치는 모두 서브넷 소유자가 차지한다. 이론적으로 서브넷 소유자는 이러한 가치에 대해 지불해야 한다.
또한 서브넷 소유자는 아무런 비용도 부담하지 않을 뿐 아니라 서브넷 배당량의 18%도 누린다. 이는 Bittensor 생태계가 밀접하게 연결되어 있지 않음을 의미한다—참여자들은 개발과 협업을 기반으로 느슨하게 연결되어 있다. 서브넷 상의 프로젝트는 언제든지 비용 없이 탈퇴할 수 있다
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News












