
AI + DePIN + 솔라나 생태계의 삼중 광환을 두른 IO.NET: 곧 토큰 발행을 앞둔 프로젝트 분석
저자: Alex Xu, Mint Ventures
서론
지난번 글에서 이번 암호화폐 호황 사이클은 이전 두 차례와 비교해 충분히 영향력 있는 새로운 비즈니스 및 자산 스토리텔링이 부족하다고 언급했습니다. AI는 이번 Web3 분야에서 드물게 등장한 새로운 서사 중 하나이며, 본 글에서는 올해 주목받는 AI 프로젝트인 IO.NET을 중심으로 다음 두 가지 질문에 대한 고찰을 정리하고자 합니다.
-
AI+Web3의 상업적 필요성
-
분산형 컴퓨팅 파워 서비스의 필요성과 도전 과제
또한 본문에서는 AI 분산 컴퓨팅의 대표 프로젝트인 IO.NET의 핵심 정보를 정리하며 제품 로직, 경쟁사 현황, 프로젝트 배경 등을 소개하고, 프로젝트 가치 평가를 추정하겠습니다.
본문 중 AI와 Web3 결합 부분의 일부 고찰은 Delphi Digital 연구원 Michael Rinko가 집필한 《The Real Merge》에서 영감을 받았습니다. 본문의 일부 견해는 해당 논문의 해석 및 인용을 포함하고 있으며, 원문 독독을 권장합니다.
본 글은 필자가 게시 시점까지의 단계적 사고를 담은 것이며, 향후 변경될 수 있으며, 견해는 매우 주관적이며 사실, 데이터, 추론 논리 오류가 있을 수 있으므로 투자 참고용으로 사용하지 마십시오. 동료들의 비판과 토론을 환영합니다.
이하 본문입니다.
1. 비즈니스 로직: AI와 Web3의 접점
1.1 2023년: AI가 만든 새로운 '기적의 해'
인류 발전사를 돌아보면, 기술이 돌파구를 마련할 때마다 개인의 일상생활부터 산업 구조, 나아가 인류 문명 전체에 걸쳐 천지개벽 같은 변화가 발생합니다.
인류 역사에는 두 가지 중요한 해가 있는데, 바로 1666년과 1905년이며, 현재 이 둘은 과학기술사상 ‘두 번째 기적의 해’로 불립니다.
1666년이 기적의 해로 여겨지는 이유는 뉴턴의 과학적 성과가 이 해에 집중적으로 나타났기 때문입니다. 그는 이 해에 물리학의 한 분야인 광학을 개척했으며, 미적분이라는 수학 분야를 창립하고, 현대 자연과학의 기초 법칙인 중력 공식을 도출했습니다. 이 중 어느 하나라도 미래 수백 년간 인류 과학 발전의 기반을 다진 획기적인 업적으로, 전체 과학 발전 속도를 크게 가속화시켰습니다.
두 번째 기적의 해는 1905년인데, 당시 26세에 불과했던 아인슈타인이 『물리학 연보』에 연달아 네 편의 논문을 발표했습니다. 각각 광전효과(양자역학의 기초), 브라운 운동(확률 과정 분석의 중요 근거), 특수 상대성 이론, 질량-에너지 방정식(E=MC^2로 유명)을 다루었습니다. 후대 평가에 따르면 이 네 편의 논문은 모두 노벨 물리학상 수준을 훨씬 넘었으며(아인슈타인 본인은 광전효과 논문으로 노벨상을 수상함), 인류 문명의 역사적 진전을 다시금 크게 앞당겼습니다.
그리고 막 지난 2023년 역시 ChatGPT 덕분에 또 다른 '기적의 해'로 기록될 가능성이 큽니다.
우리는 2023년을 인류 과학기술사상 또 하나의 ‘기적의 해’로 보는 이유는 GPT가 자연어 이해 및 생성에서 거둔 큰 진전 때문만이 아니라, 인간이 GPT의 진화를 통해 대규모 언어 모델 능력 증가의 규칙을 파악했기 때문입니다. 즉, 모델 파라미터와 학습 데이터를 확장하면 모델 능력을 지수적으로 향상시킬 수 있다는 점입니다. 그리고 이 과정은 단기간 내에 병목 현상이 보이지 않습니다(단지 컴퓨팅 파워만 충분하다면 말입니다).
이 능력은 언어 이해 및 대화 생성에 그치지 않고 다양한 과학기술 분야로 확장되어 활용될 수 있습니다. 예를 들어 생물학 분야에서 대규모 언어 모델을 적용한 사례를 살펴보겠습니다.
-
2018년 노벨 화학상을 수상한 프랜시스 아놀드는 수상식에서 "오늘날 우리는 실제 응용에서 임의의 DNA 서열을 읽고 쓰며 편집할 수 있지만, 아직 그것을 통해 창작(compose it)하지는 못한다"고 말했습니다. 그런데 그의 발언 후 불과 5년이 지난 2023년, 스탠포드 대학교와 실리콘밸리의 AI 스타트업 Salesforce Research 소속 연구자들은 『네이처 바이오테크놀로지』에 논문을 게재하며, GPT3를 기반으로 미세 조정된 대규모 언어 모델을 이용해 완전히 새로운 100만 종의 단백질을 처음으로 창조했다고 밝혔습니다. 이들 중 구조는 전혀 다르지만 모두 살균 능력을 갖춘 두 가지 단백질을 발견하였고, 이는 항생제 이외의 박테리아 억제 방법이 될 수 있음을 의미합니다. 즉, AI의 도움으로 단백질 ‘창작’의 병목이 해결된 것입니다.
-
이전에도 알파폴드(AlphaFold) 알고리즘이 18개월 만에 지구상 거의 모든 2억 1400만 가지 단백질 구조를 예측하는 성과를 거뒀는데, 이는 지금까지 인류 구조 생물학자들이 달성한 업적의 수백 배에 달합니다.
AI 기반의 다양한 모델이 등장하면서 생명공학, 재료 과학, 신약 개발 등의 하드테크 분야뿐 아니라 법률, 예술 등 인문 분야에 이르기까지 극적인 변혁이 일어날 것이며, 2023년은 이러한 모든 변화의 원년입니다.
근래 수백 년간 인류의 부 창조 능력은 지수적으로 증가해왔다는 것을 잘 알고 있으며, AI 기술의 급속한 성숙은 이러한 추세를 더욱 가속화할 것입니다.

전 세계 GDP 총액 추이, 자료 출처: 세계은행
1.2 AI와 크립토의 결합
AI와 크립토 결합의 본질적 필요성을 이해하기 위해선 양자의 보완적 특성에서 출발해야 합니다.
AI와 크립토의 특성 보완
AI는 세 가지 속성을 가집니다.
-
무작위성: AI는 무작위성을 가지며, 내용 생성 메커니즘은 재현이나 탐지가 어려운 블랙박스이므로 결과 또한 무작위적입니다.
-
자원 집약성: AI는 자원 집약 산업으로 많은 에너지, 칩, 컴퓨팅 파워가 필요합니다.
-
유사 인간 지능: AI는 (곧) 튜링 테스트를 통과할 수 있으며, 이후 인간과 기계를 구별하기 어려워집니다.*
※ 2023년 10월 30일, 미국 캘리포니아대학교 샌디에이고 캠퍼스 연구팀은 GPT-3.5 및 GPT-4.0의 튜링 테스트 결과를 발표했습니다(테스트 보고서). GPT4.0의 점수는 41%로, 합격 기준 50%에 9% 모자랐으며, 동일 프로젝트의 인간 참가자 점수는 63%였습니다. 이 튜링 테스트의 의미는 대화 상대를 얼마나 많은 사람이 진짜 사람이라고 판단했는지를 나타냅니다. 50%를 초과하면 인구 중 적어도 절반이 대화 상대를 인간이라 생각한다는 뜻이며, 이를 튜링 테스트 통과로 간주합니다.
AI가 인류에게 새로운 도약적 생산력을 제공하는 동시에, 이 세 가지 속성은 인류 사회에 큰 도전을 안깁니다. 즉,
-
AI의 무작위성을 어떻게 검증하고 제어하여 무작위성을 장점으로 만들 것인지
-
AI가 요구하는 막대한 에너지 및 컴퓨팅 파워 격차를 어떻게 메울 것인지
-
사람과 기계를 어떻게 구분할 것인지
그런데 크립토 및 블록체인 경제의 특성은 AI가 야기한 문제를 해결하는 좋은 처방이 될 수 있습니다. 암호경제는 다음과 같은 세 가지 특징을 가집니다.
-
결정성: 블록체인, 코드, 스마트 계약 기반 운영으로 규칙과 경계가 명확하며, 입력에 따라 결과가 정해져 있어 높은 결정성을 가짐
-
자원 배분 효율성: 암호경제는 방대한 글로벌 자유시장을 형성하여 자원의 가격 책정, 조달, 유통이 매우 빠르며, 토큰 존재로 인센티브를 통해 시장 수요·공급 매칭을 가속화하고 임계점에 빠르게 도달할 수 있음
-
신뢰 불필요성(trustless): 장부가 공개되고 코드가 오픈소스이므로 누구나 쉽게 검증 가능하며, '신뢰 불필요(trustless)' 시스템을 제공함. ZK 기술은 검증 시 개인정보 노출 없이도 가능
다음은 AI와 암호경제의 보완성을 설명하는 세 가지 예입니다.
예 A: 무작위성 해결 - 암호경제 기반 AI 에이전트
AI 에이전트란 인간의 의지에 따라 인간을 대신해 작업을 수행하는 인공지능 프로그램입니다(대표적 프로젝트 Fetch.AI). 자신의 AI 에이전트에게 "BTC 1000달러어치를 매수하라"는 금융 거래를 맡긴다고 가정합시다. AI 에이전트는 두 가지 상황에 직면할 수 있습니다.
첫 번째 상황은 전통적 금융기관(예: 베일리드)에 연결하여 BTC ETF를 매수하는 경우로, AI 에이전트와 중앙화된 기관 간의 호환 문제가 많습니다. KYC, 자료 심사, 로그인, 신원 인증 등이 필요한데, 현재로서는 매우 번거롭습니다.
두 번째 상황은 원생 암호경제 기반으로 작동하는 경우입니다. 이 경우 AI 에이전트는 Uniswap 또는 어떤 집계 거래 플랫폼을 통해 당신의 계정으로 서명하고 주문을 내어 거래를 완료하고 WBTC(또는 기타 포장된 형태의 BTC)를 받게 됩니다. 이 과정은 매우 간편합니다. 실제로 이것은 다양한 트레이딩 BOT이 하고 있는 일이며, 이미 초보적인 AI 에이전트 역할을 수행하고 있다고 볼 수 있습니다. 다만 작업이 거래에 집중되어 있을 뿐입니다. 앞으로 다양한 트레이딩 BOT이 AI와 융합되며 더 복잡한 거래 의도를 수행하게 될 것입니다. 예를 들어: 체인 상 100개의 스마트머니 주소를 추적하여 그들의 거래 전략과 성공률을 분석하고, 내 주소의 10% 자금을 일주일 동안 유사한 거래를 실행하며, 효과가 좋지 않으면 중단하고 실패 가능성 원인을 요약하는 등의 작업이 가능합니다.
AI가 블록체인 시스템 내에서 더 잘 작동하는 이유는 암호경제의 규칙이 명확하고 시스템 접근이 허가 없이도 가능하기 때문입니다. 제한된 규칙 안에서 작업을 수행하면 AI의 무작위성이 가져오는 잠재적 위험도 줄어듭니다. 예를 들어 AI가 체스, 바둑, 전자 게임에서 인간을 압도하는 것은 체스와 게임이 규칙이 명확한 폐쇄형 샌드박스이기 때문입니다. 반면 자율주행에서의 진전은 상대적으로 느린데, 외부 개방 환경의 도전이 크고, 우리가 AI 처리의 무작위성을 용납하기 어렵기 때문입니다.
예 B: 자원 조성 - 토큰 인센티브를 통한 자원 집결
BTC 뒤에 있는 글로벌 컴퓨팅 파워 네트워크는 현재 총 컴퓨팅 능력(Hashrate: 576.70 EH/s)이 어느 국가의 슈퍼컴퓨터 총합보다도 큽니다. 그 발전 동력은 간단하고 공정한 네트워크 인센티브에 있습니다.

BTC 네트워크 컴퓨팅 파워 추이, 출처: https://www.coinwarz.com/
이 외에도 Mobile을 포함한 DePIN 프로젝트들은 토큰 인센티브를 통해 수요와 공급 양쪽 시장을 조성하고 네트워크 효과를 실현하려 시도하고 있습니다. 본문에서 집중적으로 다룰 IO.NET은 AI 컴퓨팅 파워를 모으기 위한 플랫폼으로, 토큰 모델을 통해 더 많은 AI 컴퓨팅 파워 잠재력을 이끌어내고자 합니다.
예 C: 오픈소스 코드, ZK 도입 - 프라이버시 보호 상태에서 인간과 기계 구분
OpenAI 창립자 샘 알트먼이 참여한 Web3 프로젝트 Worldcoin은 하드웨어 장치 Orb를 통해 인간의 홍채 생체 정보를 기반으로 ZK 기술을 이용해 고유하고 익명의 해시 값을 생성하여 신원을 검증하고 인간과 기계를 구분합니다. 올해 3월 초부터 Web3 예술 프로젝트 Drip은 Worldcoin ID를 사용해 진짜 사용자를 인증하고 보상을 지급하기 시작했습니다.

또한 Worldcoin은 최근 홍채 하드웨어 Orb의 프로그램 코드를 오픈소스화하여 사용자의 생체 정보 보안 및 프라이버시를 보장하고 있습니다.

총괄적으로 암호경제는 코드와 암호학의 결정성, 허가 없이도 가능한 접근성, 토큰 메커니즘으로 인한 자원 유통 및 조달 우위, 오픈소스 코드와 공개 장부 기반의 신뢰 불필요(trustless) 속성 때문에, AI가 초래한 도전에 직면한 인류 사회의 중요한 잠재적 해결책이 되었습니다.
그리고 그 중 가장 시급하고 상업적 수요가 가장 큰 도전은 AI 제품의 컴퓨팅 파워에 대한 극심한 갈망, 즉 칩과 컴퓨팅 파워에 대한 막대한 수요입니다.
이것이 바로 이번 호황 사이클에서 분산형 컴퓨팅 프로젝트들의 상승세가 전체 AI 분야를 압도하는 주된 이유입니다.
분산 컴퓨팅(Decentralized Compute)의 상업적 필요성
AI는 모델 훈련과 추론 모두에 막대한 컴퓨팅 자원이 필요합니다.
대규모 언어 모델 훈련 실무에서 확인된 사실은 데이터 및 파라미터 규모가 충분히 클 경우 대규모 언어 모델이 이전에는 없었던 능력을 발현한다는 것입니다. 매 세대 GPT의 능력이 전 세대보다 지수적으로 도약한 배경은 모델 훈련에 필요한 컴퓨팅 양이 지수적으로 증가했기 때문입니다.
DeepMind와 스탠포드 대학의 연구에 따르면, 다양한 대규모 언어 모델이 서로 다른 작업(연산, 페르시아어 질문 답변, 자연어 이해 등)을 수행할 때 모델 훈련의 파라미터 규모를 키우면(이에 대응해 훈련 컴퓨팅량도 증가함), 훈련량이 10^22 FLOPs(FLOPs는 초당 부동소수점 연산량으로 컴퓨팅 성능 측정 지표)에 도달하기 전까진 어떤 작업의 성과도 무작위 답변과 거의 같다는 것이 밝혀졌습니다. 그러나 파라미터 규모가 그 임계점을 넘어서면 작업 성과가 급격히 향상되며, 어떤 언어 모델이든 마찬가지입니다.

출처: Emergent Abilities of Large Language Models

출처: Emergent Abilities of Large Language Models
바로 이 컴퓨팅 파워에서 '힘으로 기적을 만든다'는 법칙과 실천이 검증되면서 OpenAI 창립자 샘 알트맨은 7조 달러를 조달해 현재 TSMC보다 10배 규모의 첨단 칩 공장을 건설(이 부분에 1.5조 달러 예상)하고 나머지 자금은 칩 생산 및 모델 훈련에 사용하겠다고 제안했습니다.
AI 모델 훈련 외에도 모델 추론 과정 자체에도 많은 컴퓨팅 파워가 필요합니다(비록 훈련에 비하면 작지만 말입니다). 따라서 칩과 컴퓨팅 파워에 대한 갈망은 AI 분야 참여자들에게 일상이 되었습니다.
Amazon Web Services, Google Cloud Platform, Microsoft Azure 등의 중앙화된 AI 컴퓨팅 파워 제공업체와 비교해 분산형 AI 컴퓨팅의 주요 가치 제안은 다음과 같습니다.
-
접근성: AWS, GCP, Azure 등의 클라우드 서비스를 통해 컴퓨팅 칩에 접근하려면 일반적으로 몇 주가 걸리며, 인기 있는 GPU 모델은 자주 품절됩니다. 또한 컴퓨팅 파워를 얻기 위해 소비자는 종종 장기적이고 유연성이 떨어지는 계약을 대기업과 체결해야 합니다. 반면 분산형 컴퓨팅 파워 플랫폼은 탄력적인 하드웨어 선택이 가능하며, 접근성이 훨씬 높습니다.
-
낮은 가격: 유휴 칩을 활용하고 네트워크 프로토콜 측에서 칩 및 컴퓨팅 파워 공급자에게 토큰 보조금을 제공함으로써 분산형 컴퓨팅 네트워크는 더 저렴한 컴퓨팅 파워를 제공할 수 있습니다.
-
검열 회피: 현재 첨단 컴퓨팅 칩과 공급은 대형 기술 기업이 독점하고 있으며, 미국을 비롯한 정부가 AI 컴퓨팅 파워 서비스에 대한 검열을 강화하고 있습니다. AI 컴퓨팅 파워를 분산되고 탄력적이며 자유롭게 접근할 수 있게 하는 것은 점점 더 명확한 수요가 되고 있으며, 이것이 웹3 기반 컴퓨팅 파워 플랫폼의 핵심 가치 제안입니다.
산업시대의 혈액이 화석 연료라면, 컴퓨팅 파워는 AI가 열어가는 새 디지털 시대의 혈액이 될 수 있으며, 컴퓨팅 파워 공급은 AI 시대의 인프라가 될 것입니다. 마치 스테이블코인이 웹3 시대의 법정화폐 한 갈래로 번성하듯, 분산형 컴퓨팅 파워 시장이 급성장하는 AI 컴퓨팅 파워 시장의 한 갈래가 될 수 있을까요?
여전히 매우 초기 시장이기 때문에 모든 것은 지켜봐야 합니다. 하지만 다음 요인들이 분산형 컴퓨팅 파워 서사나 시장 채택에 자극을 줄 수 있습니다.
-
GPU의 계속되는 수급 불균형: GPU의 지속적인 공급 부족은 일부 개발자들이 분산형 컴퓨팅 파워 플랫폼을 시도하도록 유도할 수 있습니다.
-
규제 확대: 대형 클라우드 컴퓨팅 파워 플랫폼에서 AI 컴퓨팅 파워 서비스를 얻으려면 KYC와 여러 단계의 검사를 거쳐야 합니다. 이는 오히려 분산형 컴퓨팅 파워 플랫폼의 채택을 촉진할 수 있으며, 특히 제한 및 제재를 받는 지역에서 그렇습니다.
-
토큰 가격 자극: 호황 사이클에서 토큰 가격 상승은 플랫폼이 GPU 공급자에게 제공하는 보조금 가치를 높여 더 많은 공급자를 시장에 유입시키고 시장 규모를 키우며 소비자의 실제 구매 가격을 낮춥니다.
그러나 동시에 분산형 컴퓨팅 파워 플랫폼의 도전 과제도 매우 명확합니다.
-
기술 및 엔지니어링 난제
-
작업 검증 문제: 딥러닝 모델의 계산은 계층적 구조로 인해 각 계층의 출력이 다음 계층의 입력이 되므로 계산의 유효성을 검증하려면 이전의 모든 작업을 수행해야 하며, 간단하고 효과적으로 검증할 수 없습니다. 이를 해결하기 위해 분산형 컴퓨팅 플랫폼은 새로운 알고리즘을 개발하거나 근사 검증 기술을 사용해야 합니다. 이러한 기술은 절대적 확실성이 아닌 결과 정확성에 대한 확률적 보장을 제공할 수 있습니다.
-
병렬화 난제: 분산형 컴퓨팅 파워 플랫폼은 장尾(changwei) 칩 공급을 모으므로 단일 장치가 제공할 수 있는 컴퓨팅 파워는 제한적이며, 단일 칩 공급자가 단시간 내에 AI 모델 훈련이나 추론 작업을 독립적으로 완료하기는 거의 불가능합니다. 따라서 작업을 분해하고 할당하여 총 완료 시간을 단축하기 위해 반드시 병렬화 수단을 사용해야 합니다. 그러나 병렬화는 작업 분해 방법(특히 복잡한 딥러닝 작업), 데이터 의존성, 장치 간 추가 통신 비용 등 일련의 문제에 직면하게 됩니다.
-
프라이버시 보호 문제: 구매자의 데이터 및 모델이 작업 수령자에게 노출되지 않도록 어떻게 보장할 것인가?
-
-
규제 준수 난제
-
분산형 컴퓨팅 플랫폼은 공급과 구매 양쪽 시장이 허가 없이 접근 가능하기 때문에, 한편으로는 이를 판매 포인트로 삼아 일부 고객을 유치할 수 있습니다. 다른 한편으로는 AI 규제 규범이 완비됨에 따라 정부의 단속 대상이 될 수 있습니다. 또한 일부 GPU 공급자들은 자신이 임대한 컴퓨팅 자원이 제재 대상의 사업 또는 개인에게 제공되었는지 걱정하기도 합니다.
-
총괄적으로 분산형 컴퓨팅 플랫폼의 소비자는 대부분 전문 개발자 혹은 중소 기관이며, 암호화폐 및 NFT 투자자들과 다릅니다. 이들 사용자는 프로토콜이 제공하는 서비스의 안정성과 지속성에 대해 더 높은 요구를 하며, 가격이 반드시 의사결정의 주요 동기가 아닐 수 있습니다. 현재까지 분산형 컴퓨팅 플랫폼이 이러한 사용자들의 인정을 얻기 위해서는 아직 갈 길이 멉니다.
다음으로 이번 사이클의 새로운 분산형 컴퓨팅 파워 프로젝트 IO.NET의 프로젝트 정보를 정리하고 분석하며, 현재 시장에서 동일 분야의 AI 프로젝트 및 분산형 컴퓨팅 프로젝트들을 기반으로 상장 후 가능한 가치 평가 수준을 추정하겠습니다.
2. 분산형 AI 컴퓨팅 파워 플랫폼: IO.NET
2.1 프로젝트 포지셔닝
IO.NET은 탈중앙화 컴퓨팅 네트워크로, 칩 기반의 양방향 시장을 구성합니다. 공급 측은 전 세계에 분산된 칩(GPU 중심, CPU 및 애플 iGPU 등 포함) 컴퓨팅 파워이며, 수요 측은 AI 모델 훈련 또는 추론 작업을 수행하려는 AI 엔지니어입니다.
IO.NET 공식 홈페이지에 따르면 다음과 같이 기술하고 있습니다.
Our Mission
Putting together one million GPUs in a DePIN – decentralized physical infrastructure network.
즉, 백만 단위의 GPU를 DePIN 네트워크에 통합하는 것이 사명입니다.
기존의 클라우드 AI 컴퓨팅 파워 제공업체와 비교해 주로 강조하는 주요 판매 포인트는 다음과 같습니다.
-
탄력적 조합: AI 엔지니어는 자신의 컴퓨팅 작업에 필요한 칩을 자유롭게 선택하고 조합하여 '클러스터'를 구성할 수 있음
-
신속한 배포: 현재 AWS 등 중앙화된 업체처럼 수주의 승인과 대기를 필요로 하지 않고 수십 초 내에 배포를 완료하고 작업을 시작할 수 있음
-
저렴한 서비스: 서비스 비용이 주류 업체보다 90% 낮음
또한 IO.NET은 향후 AI 모델 스토어 등의 서비스도 출시할 계획입니다.
2.2 제품 메커니즘 및 사업 데이터
제품 메커니즘 및 배포 경험
아마존 클라우드, 구글 클라우드, 알리클라우드와 마찬가지로 IO.NET이 제공하는 컴퓨팅 서비스는 IO Cloud입니다. IO Cloud는 분산형, 탈중앙화된 칩 네트워크로 Python 기반 머신러닝 코드를 실행하고 AI 및 머신러닝 프로그램을 운영할 수 있습니다.
IO Cloud의 기본 사업 모듈은 클러스터(Clusters)입니다. 클러스터는 컴퓨팅 작업을 스스로 조율하여 완료할 수 있는 GPU 그룹으로, AI 엔지니어는 자신의 필요에 따라 원하는 클러스터를 커스터마이징할 수 있습니다.
IO.NET의 제품 인터페이스는 사용자 친화성이 매우 높습니다. AI 컴퓨팅 작업을 위해 자신의 칩 클러스터를 배포하려면 IO Cloud의 클러스터 제품 페이지에 들어가면 원하는 대로 클러스터를 설정할 수 있습니다.

페이지 정보: https://cloud.io.net/cloud/clusters/create-cluster, 아래 동일
먼저 작업 시나리오를 선택해야 합니다. 현재 세 가지 유형을 선택할 수 있습니다.
-
General(일반형): 초기에 구체적인 자원 수요가 불확실한 프로젝트 단계에 적합한 보편적인 환경을 제공합니다.
-
Train(훈련형): 머신러닝 모델 훈련 및 미세 조정을 위해 설계된 클러스터입니다. 이 옵션은 더 많은 GPU 리소스, 더 높은 메모리 용량 및/또는 더 빠른 네트워크 연결을 제공하여 이러한 고강도 컴퓨팅 작업을 처리할 수 있도록 합니다.
-
Inference(추론형): 낮은 지연 시간 추론 및 고부하 작업을 위해 설계된 클러스터입니다. 머신러닝 맥락에서 추론이란 훈련된 모델을 사용해 새로운 데이터의 예측 또는 분석을 수행하고 피드백을 제공하는 것을 의미합니다. 따라서 이 옵션은 실시간 또는 준실시간 데이터 처리 수요를 지원하기 위해 지연 시간과 처리량 최적화에 집중합니다.
다음으로 칩 클러스터의 공급자를 선택해야 합니다. 현재 IO.NET은 Render Network 및 Filecoin 채굴자 네트워크와 협력 관계를 맺고 있으므로, 사용자는 IO.NET 또는 다른 두 네트워크의 칩을 자신의 컴퓨팅 클러스터 공급자로 선택할 수 있습니다. 즉, IO.NET이 집계기(aggregator) 역할을 한다는 의미입니다(단 필자가 글을 작성할 시점 기준으로 Filecoin 서비스는 일시 중단 중입니다). 참고로 페이지 표시에 따르면 현재 IO.NET 온라인에서 사용 가능한 GPU 수는 20만 개 이상이며, Render Network의 사용 가능한 GPU 수는 3700개 이상입니다.
그 다음은 클러스터의 칩 하드웨어 선택 단계입니다. 현재 IO.NET이 제공하는 선택 가능한 하드웨어 유형은 GPU만 있으며, CPU나 애플의 iGPU(M1, M2 등)는 포함되지 않습니다. 또한 GPU는 주로 엔비디아 제품 중심입니다.

공식적으로 나열되고 사용 가능한 GPU 하드웨어 옵션 중,笔者 테스트 당일 데이터에 따르면 IO.NET 네트워크의 총 온라인 사용 가능한 GPU 수는 206,001개입니다. 그 중 가장 많이 사용 가능한 것은 GeForce RTX 4090(45,250개)이며, 그 다음은 GeForce RTX 3090 Ti(30,779개)입니다.
또한 머신러닝, 딥러닝, 과학 컴퓨팅과 같은 AI 컴퓨팅 작업에서 더 효율적인 A100-SXM4-80GB 칩(시장 가격 15,000달러 이상)은 온라인 수가 7,965개입니다.

또한 엔비디아가 하드웨어 설계 초기부터 AI 전용으로 개발한 H100 80GB HBM3 그래픽카드(시장 가격 40,000달러 이상)는 훈련 성능이 A100의 3.3배, 추론 성능은 A100의 4.5배이며, 실제 온라인 수는 86개입니다.

클러스터의 하드웨어 유형을 선택한 후, 사용자는 클러스터의 지역, 통신 속도, 임대할 GPU 수 및 시간 등의 매개변수를 선택해야 합니다.
마지막으로 IO.NET은 종합적인 선택에 따라 청구서를 제공합니다.笔者의 클러스터 구성 예시는 다음과 같습니다.
-
일반(General) 작업 시나리오
-
A100-SXM4-80GB 칩 16장
-
최고 연결 속도(Ultra High Speed)
-
미국 위치
-
임대 기간 1주
총 청구 금액은 3,311.6달러이며, 단일 카드의 시간당 임대 단가는 1.232달러입니다.

반면 A100-SXM4-80GB는 아마존 클라우드, 구글 클라우드, 마이크로소프트 애저에서의 단일 카드 시간당 임대 가격이 각각 5.12달러, 5.07달러, 3.67달러입니다(출처: https://cloud-gpus.com/, 실제 가격은 계약 세부 조건에 따라 변동 가능).
따라서 가격 측면에서 IO.NET의 칩 컴퓨팅 파워는 주류 업체보다 훨씬 저렴하며, 공급 조합과 구매도 매우 탄력적이고 조작이 쉽습니다.
사업 현황
공급 측 현황
올해 4월 4일 기준 공식 데이터에 따르면 IO.NET의 공급 측 GPU 총 공급량은 371,027장, CPU 공급량은 42,321장입니다. 또한 협력업체인 Render Network는 9,997장의 GPU와 776장의 CPU를 네트워크 공급에 연결했습니다.

자료 출처: https://cloud.io.net/explorer/home, 아래 동일
필자가 글을 작성할 당시 IO.NET에 연결된 GPU 총량 중 214,387장이 온라인 상태이며, 온라인 비율은 57.8%입니다. Render Network의 GPU 온라인 비율은 45.1%입니다.
위 공급 측 데이터는 무엇을 의미할까요?
비교를 위해 또 다른 상장 시간이 더 긴 기존 분산형 컴퓨팅 프로젝트 Akash Network를 비교 대상으로 삼겠습니다.
Akash Network는 2020년에 메인넷을 출시했으며, 초기에는 주로 CPU 및 저장소 분산형 서비스에 집중했습니다. 2023년 6월 GPU 서비스 테스트넷을 출시했으며, 같은 해 9월 GPU 분산형 컴퓨팅 파워 메인넷을 출시했습니다.

자료 출처: https://stats.akash.network/provider-graph/graphics-gpu
Akash 공식 데이터에 따르면 GPU 네트워크 출시 이후 공급 측은 지속적으로 증가했지만, 현재까지 총 연결된 GPU 수는 365장에 불과합니다.
GPU 공급량 측면에서 IO.NET은 Akash Network보다 수 개 차수 이상 많으며, 분산형 GPU 컴퓨팅 파워 분야에서 가장 큰 공급 네트워크입니다.
수요 측 현황

그러나 수요 측을 보면 IO.NET은 여전히 초기 시장 육성 단계에 있으며, 현재 IO.NET을 사용해 컴퓨팅 작업을 수행하는 실제 총량은 많지 않습니다. 대부분 온라인 GPU의 작업 부하량은 0%이며, A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S, H100 80GB HBM3 네 가지 칩만 작업을 처리하고 있습니다. 또한 A100 PCIe 80GB K8S를 제외하면 다른 세
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News














