
Galaxy Digital: 암호화폐와 인공지능의 교차점 이해하기
작성자: Lucas Tcheyan
번역: Block unicorn
서론
공개 블록체인의 등장은 컴퓨터 과학 역사상 가장 심오한 진보 중 하나였다. 동시에 인공지능(AI)의 발전은 이미 우리 세상에 깊이 영향을 미치고 있으며 앞으로도 그럴 것이다. 블록체인 기술이 거래 정산, 데이터 저장 및 시스템 설계를 위한 새로운 틀을 제공했다면, AI는 계산, 분석 및 콘텐츠 전달 분야에서 일종의 혁명을 가져왔다. 이 두 산업의 혁신은 새로운 사용 사례들을 창출하며, 향후 몇 년간 양측의 채택을 가속화할 가능성이 있다. 본 보고서는 암호화폐와 인공지능의 지속적인 통합을 탐구하며, 두 기술 간 격차를 메우고 그 힘을 활용하려는 독창적 사용 사례들에 초점을 맞춘다. 구체적으로는 탈중앙화 컴퓨팅 프로토콜, 제로노울리지 머신러닝(zkML) 인프라 및 AI 에이전트를 개발하는 프로젝트들을 조사한다.
암호화폐는 허가 없이도 신뢰할 필요 없는, 그리고 상호 운용 가능한 결제 계층을 AI에게 제공한다. 이를 통해 하드웨어 접근성을 높이는 탈중앙화 컴퓨팅 시스템, 가치 교환이 필요한 복잡한 작업을 수행하는 AI 에이전트 구축, 시빌 공격과 딥페이크에 대응하기 위한 신원 및 출처 솔루션 개발 등의 사용 사례들이 가능해진다. 반대로 AI는 웹2에서 우리가 목격한 것과 동일한 이점을 암호화폐에도 제공한다. 여기에는 대규모 언어 모델(예: 전문적으로 훈련된 ChatGPT 및 Copilot)을 통한 사용자 및 개발자 UX 향상, 스마트 계약의 기능 및 자동화 잠재력의 획기적인 개선 등이 포함된다. 블록체인은 AI가 요구하는 투명하고 데이터가 풍부한 환경을 제공하지만, 동시에 계산 능력에 한계가 있어 AI 모델을 직접 통합하는 주요 장애물이 되기도 한다.
암호화폐와 AI 융합 분야에서 현재 진행 중인 실험과 궁극적인 채택을 이끄는 동력은 암호화폐의 유망한 사용 사례를 추진하는 동력과 동일하다—즉, 허가 없이도 신뢰할 수 있는 조정 계층을 통해 가치 이전을 더 잘 촉진하는 것이다. 엄청난 잠재력을 고려할 때, 이 분야의 참여자들은 두 기술이 어떻게 교차하는지를 이해해야 한다.
핵심 요점:
-
가까운 미래(6개월~1년 내) 암호화폐와 AI의 통합은 개발자 효율성, 스마트 계약의 감사 가능성 및 보안성, 사용자 접근성을 높이는 AI 애플리케이션에 의해 주도될 것이다. 이러한 통합은 암호화폐에 특화된 것은 아니지만, 체인 상의 개발자 및 사용자 경험을 강화한다.
-
고성능 GPU의 심각한 부족 현상처럼, 탈중앙화 컴퓨팅 제품들도 AI 맞춤형 GPU 제품을 도입하여 채택을 지원하고 있다.
-
사용자 경험과 규제 여전히 탈중앙화 컴퓨팅 고객을 유치하는 장애물이다. 그러나 OpenAI의 최신 발전과 미국 내 진행 중인 규제 검토는 허가 없이, 검열 저항적이며 탈중앙화된 AI 네트워크의 가치 제안을 부각시키고 있다.
-
체인 상 AI 통합, 특히 AI 모델을 사용할 수 있는 스마트 계약은 zkML 기술 및 오프체인 계산을 검증하는 기타 계산 방법의 개선이 필요하다. 포괄적인 도구와 개발자 인재 부족, 높은 비용이 채택의 장벽이다.
-
AI 에이전트는 암호화폐와 매우 잘 어울린다. 사용자(또는 에이전트 자체)가 다른 서비스, 에이전트 또는 사람과 거래할 수 있도록 지갑을 생성할 수 있기 때문이다. 이는 기존 금융 경로로는 불가능하다. 보다 광범위한 채택을 위해서는 비-암호화 제품과의 추가 통합이 필요하다.
용어
인공지능(AI)은 인간의 추론 및 문제 해결 능력을 모방하기 위해 컴퓨팅과 기계를 활용하는 것이다.
신경망(Neural Network)은 인공지능 모델을 훈련시키는 방법 중 하나이다. 입력값을 여러 개의 알고리즘 계층을 통해 처리하고 개선하여 원하는 출력값을 생성한다. 신경망은 가중치를 갖는 방정식으로 구성되며, 출력값을 변경하기 위해 가중치를 수정할 수 있다. 정확한 출력을 위해 많은 양의 데이터와 계산이 훈련에 필요할 수 있으며, 이는 AI 모델 개발의 가장 일반적인 방법 중 하나이다(ChatGPT는 트랜스포머 기반의 신경망 과정을 사용함).
훈련(Training)은 신경망과 기타 AI 모델을 개발하는 과정이다. 모델이 입력을 올바르게 해석하고 정확한 출력을 생성하도록 하기 위해 대량의 데이터가 필요하다. 훈련 중에는 모델 방정식의 가중치가 만족스러운 출력이 나올 때까지 계속 수정된다. 훈련 비용은 매우 높을 수 있다. 예를 들어, ChatGPT는 수만 개의 자체 GPU를 사용하여 데이터를 처리한다. 리소스가 적은 팀은 일반적으로 Amazon Web Services, Azure, Google Cloud와 같은 전문 컴퓨팅 공급업체에 의존한다.
추론(Inference)은 실제 AI 모델을 사용하여 출력이나 결과를 얻는 것을 의미한다(예: ChatGPT를 사용하여 암호화폐와 AI의 교차점에 관한 논문 개요 작성). 전체 훈련 과정과 최종 제품 모두에서 추론이 사용된다. 계산 비용 때문에 훈련 후에도 실행 비용이 높을 수 있지만, 훈련보다는 계산 강도가 낮다.
제로노울리지 증명(ZKP)은 기본 정보를 노출하지 않고도 진술을 검증할 수 있게 해준다. 암호화폐에서 이것은 두 가지 이유로 유용하다: 1) 프라이버시 및 2) 확장성. 프라이버시를 위해, 사용자는 지갑에 얼마나 많은 ETH가 있는지 같은 민감한 정보를 드러내지 않고도 거래를 할 수 있다. 확장성 면에서는 오프체인 계산이 재실행보다 더 빨리 체인 상에서 증명될 수 있게 해주며, 이를 통해 블록체인과 애플리케이션이 체인 외부에서 계산을 저렴하게 실행한 후 체인 상에서 검증할 수 있다. 제로노울리지와 이더리움 가상 머신(EVM)에서의 역할에 대한 자세한 내용은 Christine Kim의 보고서 'zkEVMs: 이더리움 확장성의 미래'를 참조하라.
AI / 암호화폐 시장 지도

AI와 암호화폐 통합 프로젝트들은 여전히 대규모 체인 상 AI 상호작용을 위한 핵심 인프라를 구축 중이다.
탈중앙화 컴퓨팅 시장이 부상하고 있으며, 그래픽 처리 장치(GPU) 형태로 AI 모델 훈련 및 추론에 필요한 방대한 물리적 하드웨어를 제공하고 있다. 이러한 양방향 시장은 컴퓨팅 자원을 임대하거나 임대를 원하는 사람들을 연결하여 가치 이전과 계산 검증을 촉진한다. 탈중앙화 컴퓨팅 분야에서는 몇 가지 부문이 나타나고 있으며 추가 기능을 제공하고 있다. 양방향 시장 외에도 본 보고서는 검증 가능한 훈련 및 파인튜닝 출력을 제공하는 머신러닝 훈련 공급업체들과 컴퓨팅과 모델 생성을 연결하여 AI를 실현하려는 프로젝트들(흔히 스마트 인센티브 네트워크라고도 함)을 검토할 것이다.
zkML은 경제적이고 효과적이며 시의적절하게 체인 상에서 검증 가능한 모델 출력을 제공하려는 프로젝트들의 새로운 주요 분야이다. 이러한 프로젝트들은 주로 애플리케이션이 체인 외부에서 무거운 계산 요청을 처리한 후 체인 상에서 검증 가능한 출력을 게시할 수 있도록 하며, 이 출력은 오프체인 작업 부하가 완전하고 정확했음을 증명한다. 현재 zkML은 비싸고 시간이 오래 걸리지만 점점 더 많이 채택되고 있다. 이는 zkML 공급업체와 DeFi/게임 애플리케이션 사이의 통합 수가 증가하고 있다는 사실에서 명백하다.
충분한 컴퓨팅 공급과 체인 상 계산 검증 능력은 체인 상 AI 에이전트의 문을 열어준다. 에이전트란 사용자를 대신해 요청을 수행할 수 있도록 훈련된 모델이다. 에이전트는 사용자가 채팅봇과 대화만으로 복잡한 거래를 수행할 수 있도록 함으로써 체인 상 경험을 크게 향상시킬 수 있다. 그러나 현재로서는 에이전트 프로젝트들이 여전히 인프라와 도구 개발에 집중하고 있으며, 쉽게 빠르게 배포할 수 있도록 하고 있다.
탈중앙화 컴퓨팅
개요
AI는 모델 훈련과 추론을 위해 막대한 계산 능력을 필요로 한다. 지난 10년간 모델이 점점 더 복잡해지면서 계산 요구사항은 지수적으로 증가했다. 예를 들어 OpenAI는 2012년부터 2018년까지 모델의 계산 요구사항이 2년마다 두 배씩 증가하다가 3.5개월마다 두 배씩 증가하게 되었다고 밝혔다. 이로 인해 GPU 수요가 급증하였으며, 일부 암호화폐 채굴자들은 클라우드 컴퓨팅 서비스 제공을 위해 자신의 GPU를 재활용하기도 한다. 컴퓨팅 접근 경쟁이 치열해지고 비용이 상승함에 따라 일부 프로젝트들은 탈중앙화 컴퓨팅 솔루션을 제공하기 위해 암호화 기술을 활용하고 있다. 이들은 팀이 경제적으로 모델을 훈련하고 실행할 수 있도록 경쟁력 있는 가격으로 필요 시 컴퓨팅을 제공한다. 경우에 따라 성능과 보안 사이의 트레이드오프가 존재할 수 있다.
최첨단 GPU(예: Nvidia가 생산하는 GPU)에 대한 수요는 매우 높다. 9월, Tether는 독일의 비트코인 채굴업체 Northern Data 지분을 인수하였으며, 보도에 따르면 1억 달러 이상을 투자해 AI 훈련용 최첨단 GPU 중 하나인 H100 10,000개를 구매했다. 일류 하드웨어를 확보하기 위한 대기 시간은 최소 6개월이며, 대부분의 경우 더 길다. 더욱이 기업들은 종종 자신들이 사용하지 않을 수도 있는 컴퓨팅량을 장기 계약으로 요구받는다. 이로 인해 이용 가능한 컴퓨팅이 있음에도 불구하고 시장에서 이용할 수 없는 상황이 발생할 수 있다. 탈중앙화 컴퓨팅 시스템은 이러한 시장의 비효율성을 해결하여, 초과 용량을 즉시 다시 임대할 수 있는 2차 시장을 만들어 새로운 공급을 해방시킨다.
경쟁력 있는 가격과 접근성 외에도, 탈중앙화 컴퓨팅의 핵심 가치 제안은 검열 저항성이다. 첨단 AI 개발은 컴퓨팅 및 데이터 접근 능력이 비교할 수 없이 큰 대형 기술 기업들에 의해 주도되고 있다. 2023년 AI 지수 연례 보고서에서 강조된 첫 번째 핵심 주제는 산업계가 AI 모델 개발에서 학계를 앞서며 소수의 기술 선도자들에게 통제권이 집중되고 있다는 점이다. 이는 특히 이러한 기술 기업들이 통제할 수 없는 AI 개발을 제한하기 위해 규제를 추진한 이후, AI 모델의 기초가 되는 규범과 가치를 형성하는 데 막대한 영향력을 행사할 수 있는 능력에 대한 우려를 불러일으키고 있다.
탈중앙화 컴퓨팅의 세부 분야
최근 몇 년간 각기 다른 중심점과 트레이드오프를 가진 여러 탈중앙화 컴퓨팅 모델이 등장하였다.

일반 컴퓨팅
Akash, io.net, iExec, Cudos 등의 프로젝트는 데이터 및 일반 컴퓨팅 솔루션 외에도 AI 훈련 및 추론용 전용 컴퓨팅에 대한 접근을 제공하거나 제공할 예정인 탈중앙화 컴퓨팅 응용 프로그램들이다.
Akash는 현재 유일한 완전 오픈소스의 '슈퍼 클라우드' 플랫폼이다. Cosmos SDK 기반의 지분 증명(PoS) 네트워크이며, AKT는 Akash의 토큰으로 네트워크 보안을 유지하고 참여를 유도하는 수단으로 사용된다. Akash는 2020년 최초 메인넷을 출시하며 허가 없는 클라우드 컴퓨팅 시장을 제공하는 데 집중하였고, 초기에는 스토리지 및 CPU 임대 서비스를 중심으로 운영되었다. 2023년 6월, Akash는 GPU 중심의 새로운 테스트넷을 출시하였으며, 9월에는 GPU 메인넷을 출시하여 사용자가 AI 훈련 및 추론을 위해 GPU를 임대할 수 있도록 하였다.
Akash 생태계에는 두 가지 주요 참여자가 있다—임차인과 공급자. 임차인은 Akash 네트워크에서 컴퓨팅 자원을 구매하려는 사용자이며, 공급자는 컴퓨팅 공급자이다. 임차인과 공급자를 매칭하기 위해 Akash는 역경매 프로세스를 활용한다. 임차인은 서버 위치나 계산에 사용되는 하드웨어 유형 같은 특정 조건과 지불할 의사가 있는 금액을 포함한 컴퓨팅 요구사항을 제출한다. 이후 공급자들이 입찰가를 제출하며, 최저 입찰자가 작업을 수주하게 된다.
Akash 검증인들은 네트워크의 무결성을 유지한다. 현재 검증인 수는 100명으로 제한되어 있으며, 시간이 지남에 따라 점진적으로 증가할 계획이다. 누구든지 현재 가장 적은 AKT를 스테이킹한 검증자보다 더 많은 AKT를 스테이킹함으로써 검증자가 될 수 있다. AKT 보유자들은 또한 자신의 AKT를 검증자에게 위임할 수 있다. 네트워크의 거래 수수료와 블록 보상은 AKT 형태로 분배된다. 또한 모든 임대 건마다 Akash 네트워크는 커뮤니티가 결정한 요율로 '수수료'를 받아 AKT 보유자들에게 분배한다.
2차 시장
탈중앙화 컴퓨팅 시장은 기존 컴퓨팅 시장의 비효율성을 메우기 위해 설계되었다. 공급 제한은 기업들이 필요 이상의 컴퓨팅 자원을 비축하게 만들며, 클라우드 공급업체와의 계약 구조는 고객을 장기 계약에 묶어 지속적인 접근이 필요하지 않더라도 공급을 더욱 제한한다. 탈중앙화 컴퓨팅 플랫폼은 세계 어디에서든 컴퓨팅 수요를 가진 사람이 공급자가 될 수 있도록 새로운 공급을 해방시킨다.

AI 훈련이 GPU 수요를 급증시키는 것이 Akash 네트워크의 장기적인 사용으로 이어질지는 아직 관측 중이다. 예를 들어, Akash는 오랫동안 CPU 시장을 제공해왔으며, 중앙집중식 대안과 유사한 서비스를 70~80% 할인된 가격에 제공한다. 그러나 낮은 가격에도 불구하고 눈에 띄는 채택은 이루어지지 않았다. 네트워크의 활성 임대 건은 평탄화되었으며, 2023년 2분기 기준 평균적으로 컴퓨팅의 33%, 메모리의 16%, 저장 공간의 13%만 이용되었다. 이는 체인 상 채택 지표로서 인상적인 수치(참고로 선도적인 스토리지 제공업체 Filecoin의 2023년 3분기 스토리지 이용률은 12.6%)이지만, 여전히 공급이 수요를 초과하고 있음을 나타낸다.
Akash가 GPU 네트워크를 출시한 지 반년 이상이 지났지만, 장기적인 채택률을 정확히 평가하기엔 아직 이르다. 지금까지 GPU의 평균 이용률은 44%로 CPU, 메모리, 저장 공간보다 높아 수요의 징후를 보여준다. 이는 A100과 같은 최고 품질의 GPU에 대한 수요에 의해 주로 추진되며, 90% 이상이 임대되었다.

GPU 출시 이전과 비교해 Akash의 일일 지출도 거의 두 배 가까이 증가하였다. 이는 CPU를 포함한 기타 서비스 사용량 증가에도 기인하지만, 주로 새로운 GPU 사용량 때문인 것으로 보인다.

Lambda Cloud 및 Vast.ai 같은 중앙집중식 경쟁업체와 비교해 가격은 경쟁력이 있거나(어떤 경우에는 더 비쌈) 비슷하다. 최고급 GPU(H100 및 A100 등)에 대한 큰 수요는 대부분의 소유자들이 경쟁적인 가격 책정 시장에서 판매할 의사가 없다는 것을 의미한다.

초기 수익은 긍정적이었지만, 채택에는 여전히 장애물이 있다(아래에서 추가 설명). 탈중앙화 컴퓨팅 네트워크는 수요와 공급을 창출하기 위해 더 많은 조치를 취해야 하며, 팀들은 어떻게 새 사용자를 가장 잘 유치할지 시험하고 있다. 예를 들어 2024년 초, Akash는 제안 240호를 통과시켜 고급 GPU를 특별히 대상으로 하는 GPU 공급자의 AKT 배출량을 늘리고 더 많은 공급을 유도하였다. 팀은 또한 개념 검증 모델을 출시하여 잠재적 사용자들에게 네트워크의 실시간 기능을 보여주는 데도 노력하고 있다. Akash는 자체 기반 모델을 훈련시키고 있으며, Akash GPU를 사용하여 출력물을 생성할 수 있는 챗봇과 이미지 생성 제품을 이미 출시하였다. 마찬가지로 io.net은 안정적인 확산 모델을 개발하였으며, 네트워크의 성능과 규모를 더 잘 모방하기 위한 새로운 네트워크 기능을 출시하고 있다.
탈중앙화 머신러닝 훈련
AI 관련 작업 부하를 충족시킬 수 있는 일반 컴퓨팅 플랫폼 외에도, 전문 머신러닝 모델 훈련을 위한 전문 AI GPU 공급업체 그룹도 등장하고 있다. 예를 들어 Gensyn은 '전력을 조정하고 하드웨어를 조율하여 집단 지성을 구축'한다고 말하며, "누군가 무언가를 훈련시키기를 원하고, 누군가 그것을 훈련시키기를 원한다면, 그런 훈련이 가능해야 한다"는 견해를 갖고 있다.
이 프로토콜에는 네 가지 주요 참여자가 있다: 제출자(submitter), 해결자(solver), 검증자(verifier), 고발자(challenger). 제출자는 훈련 요청이 포함된 작업을 네트워크에 제출한다. 이러한 작업에는 훈련 목표, 훈련할 모델, 훈련 데이터가 포함된다. 제출 과정의 일환으로 제출자는 해결자가 필요로 하는 예상 계산량에 대해 선불 비용을 지불해야 한다.
제출 후 작업은 모델을 실제로 훈련하는 해결자에게 할당된다. 이후 해결자는 완료된 작업을 검증자에게 제출하며, 검증자는 훈련이 올바르게 수행되었는지 확인하는 책임을 진다. 고발자는 검증자가 성실하게 행동하는지 확인하는 책임을 진다. 고발자가 네트워크에 참여하도록 유도하기 위해 Gensyn은 정기적으로 고의로 잘못된 증거를 제공하여 고발자가 이를 잡아낼 경우 보상을 줄 계획이다.
AI 관련 작업 부하에 컴퓨팅을 제공하는 것 외에도, Gensyn의 핵심 가치 제안은 여전히 개발 중인 검증 시스템이다. GPU 공급업체의 외부 계산이 올바르게 실행되었는지 확인하기 위해(즉, 사용자의 모델이 원하는 방식으로 훈련되었는지 확인하기 위해) 검증이 필요하다. Gensyn은 '확률적 학습 증명(proof of learning), 그래프 기반 정밀 프로토콜(graph-based exact protocols), Truebit 스타일 인센티브 게임(Truebit-style incentive games)'이라는 새로운 검증 방법을 활용하여 이 문제를 독특한 방식으로 해결한다. 이는 검증자가 해결자가 모델을 올바르게 실행했는지 확인할 수 있도록 하지만, 자신이 모델을 완전히 재실행할 필요는 없는 낙관적 해결 모드이다. 이는 비용이 많이 들고 비효율적인 과정이다.
혁신적인 검증 방법 외에도, Gensyn은 중앙집중식 대안 및 암호화폐 경쟁업체에 비해 비용 효율적이라고 주장한다—AWS보다 최대 80% 저렴한 ML 훈련 가격을 제공하면서도, 테스트에서 Truebit과 같은 유사한 프로젝트를 능가한다.


이러한 초기 결과가 탈중앙화 네트워크에서 대규모로 재현될 수 있을지는 미지수이다. Gensyn은 소규모 데이터 센터, 개인 사용자, 그리고 향후 휴대폰과 같은 소형 모바일 장치의 여분 계산 능력을 활용하길 희망한다. 그러나 Gensyn 팀 스스로 인정하듯이, 이질적인 컴퓨팅 공급자에 의존하는 것은 몇 가지 새로운 도전을 가져온다.
Google Cloud 및 Coreweave와 같은 중앙집중식 공급업체의 경우 계산 비용은 비싸지만, 계산 간 통신(대역폭 및 지연)은 저렴하다. 이러한 시스템은 하드웨어 간 통신을 가능한 빨리 수행하도록 설계되어 있다. Gensyn은 세계 어디에서나 GPU를 제공할 수 있게 함으로써 계산 비용을 낮추지만, 이제 네트워크가 서로 멀리 떨어져 있는 이질적인 하드웨어 상에서 계산 작업을 조정해야 하므로 통신 비용을 증가시키는 방식으로 이 프레임워크를 뒤엎는다. Gensyn은 아직 출시되지 않았지만, 탈중앙화 머신러닝 훈련 프로토콜을 구축할 때 달성할 수 있는 가능성을 보여주는 개념 증명이다.
탈중앙화 일반 지능
탈중앙화 컴퓨팅 플랫폼은 AI 생성 방법 설계에도 가능성을 제공한다. Bittensor는 Substrate 기반의 탈중앙화 컴퓨팅 프로토콜로, "AI를 협업적 방법으로 전환하는 방법은 무엇인가?"라는 질문에 답하려 한다. Bittensor는 AI 생성의 탈중앙화와 상품화를 실현하려 한다. 2021년 출시된 이 프로토콜은 협업 머신러닝 모델의 힘을 활용하여 지속적으로 반복하고 더 나은 AI를 생성하려는 목표를 가지고 있다.
Bittensor는 비트코인에서 영감을 얻었으며, 원생 토큰 TAO의 공급량은 2,100만 개로 4년마다 반감기가 있다(첫 번째 반감기는 2025년 예정). Bittensor는 작업증명(PoW)을 사용하여 올바른 난수를 생성하고 블록 보상을 받는 대신, '지능 증명(proof of intelligence)'에 의존하여 채굴자가 추론 요청에 응답하여 출력을 생성하도록 한다.
지능 인센티브
Bittensor는 처음에는 출력 생성을 위해 전문가 혼합(MoE) 모델에 의존했다. 추론 요청이 제출되면 MoE 모델은 광범위한 모델 하나에 의존하는 대신, 주어진 입력 유형에 가장 정확한 모델에 요청을 전달한다. 집을 짓는다고 상상해보자. 당신은 건설 과정의 다양한 측면을 담당할 다양한 전문가들(건축가, 엔지니어, 페인터, 건축 노동자 등...)을 고용한다. MoE는 머신러닝 모델에 이것을 적용하여 입력에 따라 다양한 모델의 출력을 활용하려 한다. Bittensor 창립자 Ala Shaabana가 설명한 바와 같이, 이것은 "한 사람과 대화하는 대신 똑똑한 사람들로 가득한 방과 대화하여 최고의 답변을 얻는 것과 같다." 올바른 라우팅, 메시지 동기화, 인센티브 부여 등에서 도전이 있기 때문에, 이 방법은 프로젝트가 더 개발될 때까지 보류되었다.
Bittensor 네트워크에는 두 가지 주요 참여자가 있다: 검증자와 채굴자. 검증자의 임무는 채굴자에게 추론 요청을 보내고, 출력을 검토하며, 응답 품질에 따라 순위를 매기는 것이다. 검증자의 순위가 신뢰할 수 있도록 하기 위해, 검증자는 자신의 순위가 다른 검증자들의 순위와 얼마나 일치하는지에 따라 'vtrust' 점수를 받는다. 검증자의 vtrust 점수가 높을수록 더 많은 TAO 배출량을 받는다. 이는 검증자들이 시간이 지남에 따라 모델 순위에 대해 합의하도록 유도하기 위한 것이며, 순위에 대해 합의하는 검증자가 많을수록 개인의 vtrust 점수가 높아진다.
채굴자, 또는 서버라고도 불리는 이들은 실제 머신러닝 모델을 실행하는 네트워크 참여자들이다. 채굴자들은 주어진 쿼리에 대해 가장 정확한 출력을 제공하기 위해 서로 경쟁하며, 출력이 정확할수록 더 많은 TAO 배출량을 벌어들인다. 채굴자들은 원하는 대로 출력을 생성할 수 있다. 예를 들어 미래의 상황에서 Bittensor 채굴자가 Gensyn에서 모델을 훈련시킨 후 이를 사용해 TAO 배출량을 벌어들이는 것도 가능하다.
현재 대부분의 상호작용은 검증자와 채굴자 사이에서 직접 발생한다. 검증자는 채굴자에게 입력을 제출하고 출력을 요청한다(즉, 모델 훈련). 검증자가 네트워크의 채굴자에게 쿼리를 보내고 응답을 받으면, 채굴자들을 순위 매기고 그 순위를 네트워크에 제출한다.
검증자(PoS 기반)와 채굴자(모델 증명, PoW의 일종) 간의 이러한 상호작용은 Yuma 합의라고 불린다. 이는 채굴자가 최고의 출력을 생성하여 TAO 배출량을 벌고, 검증자가 채굴자 출력을 정확히 순위 매김하여 더 높은 vtrust 점수를 얻고 TAO 보상을 늘림으로써 네트워크의 합의 메커니즘을 형성하도록 유도한다.
서브넷과 애플리케이션
Bittensor 상의 상호작용은 주로 검증자가 채굴자에게 요청을 제출하고 출력을 평가하는 것으로 구성된다. 그러나 기여하는 채굴자의 품질이 향상되고 네트워크의 전체 지능이 성장함에 따라, Bittensor는 기존
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News









