
가장자리에서 탄생한 것: 탈중앙화된 컴퓨팅 파워 네트워크가 암호화폐와 AI에 어떻게 힘을 실어주는가?
글: Jane Doe, Chen Li
1 AI와 Crypto의 교차점
5월 23일, 반도체 거물 엔비디아는 2025 회계연도 1분기 실적을 발표했다. 보고서에 따르면 엔비디아의 1분기 매출은 260억 달러에 달했으며, 그중 데이터센터 부문 매출은 전년 대비 427% 증가한 놀라운 226억 달러를 기록했다. 엔비디아가 단독으로 미국 주식시장 전체를 견인하는 수준의 재무 성과를 낸 배경에는 글로벌 기술 기업들이 AI 분야에서 경쟁하기 위해 폭발적으로 증가하는 컴퓨팅 파워 수요가 있다. 최정상급 기술 기업일수록 AI 분야에 대한 야심이 크며, 이에 따라 그들의 컴퓨팅 자원 수요 또한 지수급으로 늘어나고 있다. TrendForce의 예측에 따르면, 2024년 미국 주요 클라우드 서비스 제공업체인 마이크로소프트, 구글, AWS, 메타는 고성능 AI 서버에 대한 수요가 각각 전 세계 수요의 20.2%, 16.6%, 16%, 10.8%를 차지할 것으로 예상되며, 합산하면 60% 이상을 점유하게 된다.

「칩 부족」은 몇 년간 계속된 연중 키워드다. 한편으로, 대규모 언어 모델(LLM)의 트레이닝(training)과 추론(inference)은 막대한 컴퓨팅 파워를 필요로 하며, 모델이 반복 개선될수록 컴퓨팅 비용과 수요는 지수적으로 증가한다. 다른 한편으로, 메타와 같은 대기업들은 방대한 양의 칩을 구매하여 전 세계 컴퓨팅 자원이 이러한 기술 거대 기업들 중심으로 쏠리게 되면서 소규모 기업들이 필요한 컴퓨팅 자원을 확보하기 어려워지고 있다. 소규모 기업들이 직면한 어려움은 수요 급증으로 인한 공급 부족뿐만 아니라 공급 구조의 구조적 모순에서도 기인한다. 현재 공급 측면에서는 여전히 많은 유휴 GPU 자원이 존재하는데, 예를 들어 일부 데이터센터에서는 사용률이 12~18%에 불과한 유휴 컴퓨팅 파워가 대량으로 남아 있으며, 암호화폐 채굴 역시 수익 감소로 인해 다수의 컴퓨팅 자원이 유휴 상태로 전환되고 있다. 이러한 유휴 자원이 반드시 AI 트레이닝 등 전문적인 응용 시나리오에 모두 적합하지는 않지만, 컨슈머급 하드웨어는 AI 추론, 클라우드 게임 렌더링, 클라우드폰 등의 분야에서 여전히 큰 역할을 할 수 있다. 따라서 이러한 유휴 자원을 통합하고 활용할 수 있는 기회는 매우 크다.
시선을 AI에서 크립토(crypto)로 옮겨보자. 암호화폐 시장이 3년간 침체기를 겪은 후 마침내 새로운 상승장이 도래했으며, 비트코인 가격은 사상 최고치를 경신하고 있으며, 다양한 밈코인(memecoin)들도 속속 등장하고 있다. AI와 크립토는 오랫동안 화두가 된 buzzword이지만, 인공지능과 블록체인이라는 두 가지 중요한 기술은 마치 평행선처럼 교차점을 찾지 못하고 있다. 올해 초, 비탈릭(Vitalik)은 「The promise and challenges of crypto + AI applications」라는 제목의 글을 발표하며 향후 AI와 크립토의 결합 가능성에 대해 논의했다. 그는 블록체인과 MPC(다자간 안전 계산) 등의 암호 기술을 이용해 AI의 분산형 트레이닝 및 추론을 가능케 하여 머신러닝의 블랙박스를 열고, AI 모델을 더욱 신뢰할 수 있게 만들 수 있다고 제안했다. 이러한 비전들을 실현하려면 아직 갈 길이 멀다. 그러나 그가 언급한 사례 중 하나—즉, 크립토의 경제적 인센티브를 통해 AI를 강화하는 것—은 중요하면서도 단기 내 실현 가능한 방향이다. 분산형 컴퓨팅 네트워크는 현재로서 AI+크립토가 가장 잘 맞는 시나리오 중 하나다.
2 분산형 컴퓨팅 네트워크
현재 이미 많은 프로젝트들이 분산형 컴퓨팅 네트워크 분야에서 활동하고 있다. 이들의 근본적인 로직은 유사하며 다음과 같이 요약할 수 있다. 토큰 인센티브를 통해 컴퓨팅 파워를 보유한 참여자가 네트워크에 자원을 제공하도록 유도하고, 이렇게 조각난 컴퓨팅 자원들을 모아 일정 규모의 분산형 컴퓨팅 네트워크를 형성하는 것이다. 이를 통해 유휴 자원의 활용률을 높이고, 고객의 컴퓨팅 수요를 더 낮은 비용으로 충족시켜 공급자와 수요자의 상생을 실현한다.
독자들이 짧은 시간 안에 이 분야에 대한 전반적인 이해를 얻을 수 있도록 본고에서는 미시적·거시적 두 가지 관점에서 개별 프로젝트와 전체 산업 생태계를 해체 분석하여, 독자들이 각 프로젝트의 핵심 경쟁력을 파악하고 분산형 컴퓨팅 네트워크 산업의 전반적 발전 상황을 이해할 수 있는 분석 틀을 제공하고자 한다.笔者는 Aethir, io.net, Render Network, Akash Network, Gensyn의 다섯 가지 프로젝트를 소개하고 분석하며, 각 프로젝트의 현황과 산업 전망에 대해 종합적인 평가를 제시하겠다.
분석 틀 측면에서, 특정 분산형 컴퓨팅 네트워크에 집중한다면 이를 네 가지 핵심 구성 요소로 나눌 수 있다:
-
하드웨어 네트워크: 산재한 컴퓨팅 자원을 통합하여 전 세계에 분포된 노드를 통해 자원 공유와 부하 분산을 실현하는 것으로, 분산형 컴퓨팅 네트워크의 기반층이다.
-
양방향 시장(Bilateral Market): 합리적인 가격 책정 및 발견 메커니즘을 통해 컴퓨팅 공급자와 수요자를 매칭하고, 안전한 거래 플랫폼을 제공하여 거래의 투명성, 공정성, 신뢰성을 보장한다.
-
합의 메커니즘: 네트워크 내 노드가 올바르게 작동하고 작업을 완료했는지를 보장하기 위한 장치다. 주로 두 가지 측면을 모니터링한다. 1) 노드가 온라인 상태이며 언제든지 작업을 수행할 수 있는 활성 상태인지; 2) 노드가 작업을 수령한 후 정확하고 효과적으로 완료했는지, 즉 컴퓨팅 자원이 다른 용도로 악용되지 않았는지를 확인한다.
-
토큰 인센티브: 더 많은 참여자가 서비스를 제공하거나 이용하도록 유도하고, 네트워크 효과를 토큰을 통해 포착함으로써 커뮤니티가 공동의 수익을 공유할 수 있도록 한다.
만약 분산형 컴퓨팅 산업 전체를鸟瞰(조감)한다면, Blockworks Research의 리서치 보고서는 좋은 분석 틀을 제공한다. 이에 따르면 해당 산업의 프로젝트들을 세 가지 레이어(layer)로 구분할 수 있다.
-
Bare metal layer: 분산형 컴퓨팅 스택의 기반층으로, 주된 임무는 원시 컴퓨팅 자원을 수집하고 API 호출이 가능하게 만드는 것이다.
-
Orchestration layer: 분산형 컴퓨팅 스택의 중간층으로, 주된 임무는 조정과 추상화이며, 컴퓨팅 자원의 스케줄링, 확장, 운영, 부하 분산, 오류 처리 등을 담당한다. 핵심 목적은 하위 하드웨어 관리의 복잡성을 추상화하여 특정 고객층에게 더 고차원의 사용자 인터페이스를 제공하는 것이다.
-
Aggregation layer: 분산형 컴퓨팅 스택의 최상위층으로, 주된 임무는 통합이며, 사용자가 한 곳에서 AI 트레이닝, 렌더링, zkML 등 다양한 컴퓨팅 작업을 수행할 수 있도록 통합된 인터페이스를 제공한다. 말하자면 여러 분산형 컴퓨팅 서비스를 조율하고 분배하는 계층이다.

이미지 출처: Youbi Capital
위의 두 가지 분석 틀을 바탕으로, 선정된 다섯 개의 프로젝트를 수평적으로 비교하고, 핵심 사업, 시장 포지셔닝, 하드웨어 설비, 재무 성과라는 네 가지 차원에서 평가를 진행하겠다.

2.1 핵심 사업
근본 로직 측면에서 보면, 분산형 컴퓨팅 네트워크는 매우 동질화되어 있다. 즉, 토큰 인센티브를 통해 유휴 컴퓨팅 자원 보유자가 컴퓨팅 서비스를 제공하도록 유도한다는 점이다. 이 기본 로직을 중심으로 다음 세 가지 차이점을 통해 프로젝트들의 핵심 사업을 이해할 수 있다:
-
유휴 컴퓨팅 자원의 출처:
-
시장에서 유휴 컴퓨팅 자원은 두 가지 주요 출처를 갖는다. 1) 데이터센터나 채굴업체 등 기업이 보유한 유휴 자원; 2) 개인 사용자가 보유한 유휴 자원. 데이터센터의 컴퓨팅 자원은 일반적으로 전문급 하드웨어이며, 개인 사용자는 주로 컨슈머급 칩을 구입한다.
-
Aethir, Akash Network, Gensyn의 컴퓨팅 자원은 주로 기업에서 수집된다. 기업에서 자원을 수집하는 장점은 다음과 같다. 1) 기업이나 데이터센터는 일반적으로 더 고품질의 하드웨어와 전문 유지보수 팀을 보유하고 있어, 컴퓨팅 자원의 성능과 신뢰성이 높다; 2) 기업의 자원은 보다 동질적이며, 중앙 집중적 관리와 모니터링 덕분에 자원 스케줄링과 유지보수가 효율적이다. 그러나 이 방식은 프로젝트 측에 높은 요구를 하며, 컴퓨팅 자원을 보유한 기업들과의 비즈니스 관계를 구축해야 한다. 동시에 확장성과 탈중앙화 정도가 어느 정도 제한을 받는다.
-
Render Network와 io.net은 주로 개인 사용자가 보유한 유휴 자원을 인센티브로 제공받는다. 개인 사용자로부터 자원을 수집하는 장점은 다음과 같다. 1) 개인의 유휴 자원은 명시적 비용이 낮아 더 경제적인 컴퓨팅 자원을 제공할 수 있다; 2) 네트워크의 확장성과 탈중앙화 정도가 높아 시스템의 탄력성과 안정성이 강화된다. 반면 단점도 있다. 개인 자원은 분산되어 있고 일관성이 없어 관리와 스케줄링이 복잡해져 운용 난이도가 높아진다. 또한 초기 네트워크 효과를 형성하기가 어렵다(kickstart가 어려움). 마지막으로 개인 장비는 보안 위험이 더 많아 데이터 유출이나 컴퓨팅 자원의 악용 가능성이 있다.
-
컴퓨팅 자원 수요자
-
수요자 측면에서 보면, Aethir, io.net, Gensyn의 목표 고객은 주로 기업이다. B2B 고객은 AI 및 게임 실시간 렌더링과 같은 고성능 컴퓨팅을 필요로 한다. 이러한 작업 부하는 컴퓨팅 자원에 대한 요구가 극도로 높으며, 일반적으로 고급 GPU 또는 전문 하드웨어가 필요하다. 또한 B2B 고객은 자원의 안정성과 신뢰성에 매우 민감하므로, 고품질의 SLA(서비스 수준 계약)를 제공하고 정상 운영과 기술 지원을 보장해야 한다. 동시에 B2B 고객의 전환 비용은 매우 높으므로, 분산형 네트워크가 프로젝트를 신속하게 배포할 수 있는 성숙한 SDK를 제공하지 않는다면(예: Akash Network는 사용자가 원격 포트 기반으로 직접 개발해야 함), 고객 이전은 매우 어렵다. 가격 경쟁력이 극단적으로 뛰어나지 않다면 고객의 전환 의지는 거의 없다.
-
Render Network와 Akash Network는 주로 개인 사용자(C2C)에게 컴퓨팅 서비스를 제공한다. C2C 사용자에게 서비스를 제공하기 위해서는 사용하기 쉬운 인터페이스와 도구를 설계하여 좋은 사용자 경험을 제공해야 하며, 사용자들은 가격에 매우 민감하므로 경쟁력 있는 가격 책정이 필수적이다.
-
하드웨어 유형
-
일반적인 컴퓨팅 하드웨어 자원으로는 CPU, FPGA, GPU, ASIC, SoC 등이 있다. 이들 하드웨어는 설계 목표, 성능 특성, 응용 분야에서 현저한 차이를 보인다. 요약하면, CPU는 범용 컴퓨팅 작업에 강점이 있으며, FPGA는 고병렬 처리 및 프로그래밍 가능성이 장점이고, GPU는 병렬 컴퓨팅에서 우수한 성능을 보이며, ASIC은 특정 작업에서 효율성이 가장 높고, SoC는 다양한 기능을 통합하여 고도 통합 응용에 적합하다. 어떤 하드웨어를 선택할지는 구체적인 응용 요구사항, 성능 요구 및 비용 고려에 달려 있다. 본고에서 논의하는 분산형 컴퓨팅 프로젝트들은 대부분 GPU 컴퓨팅 자원을 수집하는데, 이는 프로젝트의 사업 유형과 GPU의 특성 때문인데, GPU는 AI 트레이닝, 병렬 컴퓨팅, 멀티미디어 렌더링 등에서 독특한 장점을 갖고 있기 때문이다.
-
이들 프로젝트 대부분이 GPU 통합을 다루고 있지만, 서로 다른 응용 분야는 하드웨어 사양에 대한 요구가 다르므로, 이들 하드웨어는 이질화된 최적화 코어와 파라미터를 갖는다. 여기에는 병렬성/직렬 의존성, 메모리, 지연 시간 등이 포함된다. 예를 들어 렌더링 작업은 사실상 컨슈머급 GPU에 더 적합하며, 고성능 데이터센터 GPU에는 오히려 부적합하다. 왜냐하면 렌더링은 광선 추적(Ray Tracing)과 같은 기능에 높은 요구가 있는데, 컨슈머급 칩인 RTX 4090 등은 RT 코어를 강화하여 광선 추적 작업에 특화된 계산 최적화를 수행하기 때문이다. 반면 AI 트레이닝과 추론은 전문급 GPU를 필요로 한다. 따라서 Render Network는 개인 사용자로부터 RTX 3090, 4090 등의 컨슈머급 GPU를 모을 수 있으나, IO.NET은 AI 스타트업의 요구를 충족시키기 위해 H100, A100 등의 전문급 GPU를 더 많이 필요로 한다.
2.2 시장 포지셔닝
프로젝트의 포지셔닝 측면에서 보면, bare metal layer, orchestration layer, aggregation layer는 해결해야 할 핵심 문제, 최적화 우선순위, 가치 포획 능력이 서로 다르다.
-
Bare metal layer는 물리적 자원의 수집과 활용에 집중하며, orchestration layer는 컴퓨팅 자원의 스케줄링과 최적화에 집중하여 고객군의 요구에 따라 물리적 하드웨어를 최적화 설계한다. Aggregation layer는 범용적(general purpose)으로, 서로 다른 자원의 통합과 추상화에 집중한다. 가치 사슬 측면에서 각 프로젝트는 bare metal layer에서 시작해 상위 계층으로 올라가는 것이 바람직하다.
-
가치 포획 측면에서 보면, bare metal layer에서 orchestration layer를 거쳐 aggregation layer로 갈수록 가치 포획 능력이 점차 증가한다. Aggregation layer가 가장 많은 가치를 포획할 수 있는데, 이유는 aggregation platform이 가장 큰 네트워크 효과를 얻을 수 있으며, 가장 많은 사용자에게 직접 접근할 수 있어 분산형 네트워크의 트래픽 입구 역할을 하므로 컴퓨팅 자원 관리 스택 전체에서 가장 높은 가치 포획 위치를 차지하기 때문이다.
-
반대로 aggregation platform을 구축하는 것은 가장 어렵다. 프로젝트는 기술적 복잡성, 이종 자원 관리, 시스템 신뢰성과 확장성, 네트워크 효과 실현, 보안 및 개인정보 보호, 복잡한 운용 관리 등 다방면의 문제를 종합적으로 해결해야 한다. 이러한 도전들은 프로젝트의 콜드 스타트(cold start)에 불리하며, 산업 생태계의 발전 상황과 타이밍에 크게 좌우된다. orchestration layer가 아직 성숙하지 못하고 일정 시장 점유율을 확보하지 못한 상황에서 aggregation layer를 구축하는 것은 현실성이 떨어진다.
-
현재 Aethir, Render Network, Akash Network, Gensyn은 모두 orchestration layer에 속하며, 특정 목적과 고객군에게 서비스를 제공하는 것을 목표로 하고 있다. Aethir는 현재 클라우드 게임 실시간 렌더링을 주요 사업으로 하며 B2B 고객에게 개발 및 배포 환경 및 도구를 제공하고 있다. Render Network는 주로 비디오 렌더링을 담당하며, Akash Network는 마치 타오바오(Alibaba)와 같은 거래 플랫폼을 제공하는 것을 목표로 하고 있으며, Gensyn은 AI 트레이닝 분야에 집중하고 있다. io.net은 aggregation layer를 지향하지만, 현재까지 구현된 기능은 완전한 aggregation layer 기능과는 거리가 있다. 비록 Render Network와 Filecoin의 하드웨어를 이미 통합했지만, 하드웨어 자원의 추상화와 통합은 아직 완료되지 않았다.
2.3 하드웨어 설비
-
현재 모든 프로젝트가 네트워크의 상세 데이터를 공개한 것은 아니다. 상대적으로 io.net explorer의 UI가 가장 우수하여 GPU/CPU 수량, 종류, 가격, 지리적 분포, 네트워크 사용량, 노드 수익 등 다양한 파라미터를 확인할 수 있다. 하지만 4월 말 io.net의 프론트엔드가 공격을 받아 PUT/POST 인터페이스에 인증(Auth)이 없어 해커가 프론트엔드 데이터를 조작했다. 이는 다른 프로젝트들에게도 개인정보 보호 및 네트워크 데이터 신뢰성에 대한 경각심을 일깨워주었다.
-
GPU의 수량과 모델 측면에서 보면, aggregation layer인 io.net이 가장 많은 하드웨어를 수집하는 것이 당연하다. Aethir가 그 뒤를 잇고 있으며, 다른 프로젝트들의 하드웨어 현황은 상대적으로 투명도가 낮다. GPU 모델을 보면, io는 A100과 같은 전문급 GPU뿐 아니라 4090과 같은 컨슈머급 GPU도 보유하고 있어 다양성이 뛰어나며, 이는 io.net의 aggregation 포지셔닝과 부합한다. io는 구체적인 작업 요구에 따라 가장 적합한 GPU를 선택할 수 있다. 그러나 서로 다른 모델과 브랜드의 GPU는 각기 다른 드라이버와 설정이 필요하며, 소프트웨어도 복잡한 최적화가 필요하므로 관리 및 유지보수의 복잡성이 증가한다. 현재 io의 작업 배분은 주로 사용자가 직접 선택하는 방식이다.
-
Aethir는 자체 채굴 장비를 출시했는데, 5월에는 퀄컴(Qualcomm)이 지원하여 개발한 Aethir Edge가 정식 출시되었다. 이 제품은 기존의 사용자와 멀리 떨어진 중앙 집중형 GPU 클러스터 배치 방식을 깨뜨리고, 컴퓨팅 자원을 에지(edge)에 배치하는 것을 가능하게 한다. Aethir Edge는 H100 클러스터의 컴퓨팅 파워와 결합하여 AI 시나리오에 서비스를 제공하며, 훈련된 모델을 배포하여 최적의 비용으로 사용자에게 추론 컴퓨팅 서비스를 제공할 수 있다. 이 솔루션은 사용자에게 더 가까우며, 서비스 속도가 빠르고 비용 효율성도 높다.
-
공급과 수요 측면에서 Akash Network를 예로 들면, 통계에 따르면 CPU 총량은 약 16k, GPU 수량은 378개이며, 네트워크 임대 수요에 따라 CPU와 GPU의 이용률은 각각 11.1%와 19.3%다. 이 중 전문급 GPU인 H100의 임대율만 비교적 높고, 다른 모델은 대부분 유휴 상태에 있다. 다른 네트워크도 Akash와 유사한 상황을 겪고 있으며, 전체적인 네트워크 수요는 낮고, A100, H100과 같은 인기 칩을 제외하면 대부분의 컴퓨팅 자원이 유휴 상태에 있다.
-
가격 경쟁력 측면에서 보면, 전통적인 클라우드 컴퓨팅 시장의 거대 기업에 비해 다른 전통 서비스 제공업체보다 비용상의 장점이 두드러지지 않는다.

2.4 재무 성과
-
토큰 모델이 어떻게 설계되었든, 건강한 토큰 이코노믹스(Tokenomics)는 다음 기본 조건을 충족해야 한다. 1) 사용자의 네트워크 수요가 토큰 가격에 반영되어야 하며, 즉 토큰이 가치를 포획할 수 있어야 한다; 2) 개발자, 노드, 사용자 등 모든 참여자는 장기적이고 공정한 인센티브를 받아야 한다; 3) 중앙집권적 지배를 피하고 탈중앙화된 거버넌스를 보장해야 한다; 4) 합리적인 인플레이션·디플레이션 메커니즘과 토큰 배포 주기를 가져야 하며, 토큰 가격의 급격한 변동이 네트워크의 안정성과 지속성에 영향을 주지 않도록 해야 한다.
-
만약 토큰 모델을 대략적으로 BME(Burn and Mint Equilibrium)와 SFA(Stake for Access)로 나눈다면, 두 모델의 디플레이션 압력 원천은 다르다. BME 모델은 사용자가 서비스를 구매한 후 토큰을 소각(burn)하므로 시스템의 디플레이션 압력은 수요에 의해 결정된다. 반면 SFA는 서비스 제공자/노드가 서비스 제공 자격을 얻기 위해 토큰을 스테이킹(staking)하도록 요구하므로 디플레이션 압력은 공급에 의해 발생한다. BME의 장점은 비표준화 상품에 더 적합하다는 점이다. 그러나 네트워크 수요가 부족하면 지속적인 인플레이션 압력에 직면할 수 있다. 각 프로젝트의 토큰 모델은 세부 사항에서 차이가 있지만, 전반적으로 Aethir는 SFA에 더 가깝고, io.net, Render Network, Akash Network는 BME에 더 가깝다. Gensyn은 아직 불투명하다.
-
수입 측면에서 보면, 네트워크 수요는 네트워크 전체 수입에 직접적으로 반영된다(여기서는 마이너의 수입은 논의하지 않는다. 마이너는 작업 완료 보상 외에도 프로젝트로부터 보조금을 받기 때문이다). 공개된 데이터에 따르면 io.net의 수치가 가장 높다. Aethir의 수입은 아직 공개되지 않았지만, 공개 정보에 따르면 많은 B2B 고객과 계약을 체결한 것으로 알려졌다.
-
토큰 가격 측면에서 보면, 현재 Render Network와 Akash Network만이 ICO를 진행했다. Aethir와 io.net도 최근 토큰을 발행했으며, 가격 흐름은 추가 관찰이 필요하여 여기서는 과도한 논의를 생략한다. Gensyn의 계획은 아직 불확실하다. 토큰을 발행한 두 프로젝트와 본고에서 다루지 않은 동일 분야의 토큰 발행 프로젝트들을 종합적으로 살펴보면, 분산형 컴퓨팅 네트워크는 전반적으로 매우 눈에 띄는 가격 성과를 보이고 있으며, 이는 상당한 시장 잠재력과 커뮤니티의 높은 기대를 어느 정도 반영하고 있다.
2.5 요약
-
분산형 컴퓨팅 네트워크 산업은 전반적으로 매우 빠르게 발전하고 있으며, 이미 많은 프로젝트가 제품을 통해 고객에게 서비스를 제공하고 일정한 수입을 창출하고 있다. 이 분야는 순수한 스토리텔링을 넘어 초기 서비스 제공 단계로 진입했다.
-
수요 부진은 분산형 컴퓨팅 네트워크가 공동으로 직면한 문제이며, 장기적인 고객 수요는 충분히 검증되고 발굴되지 않았다. 그러나 수요 부진은 토큰 가격에 큰 영향을 주지 않고 있으며, 토큰을 발행한 몇몇 프로젝트는 뛰어난 성과를 보이고 있다.
-
AI는 분산형 컴퓨팅 네트워크의 주요 스토리지만 유일한 사업은 아니다. AI 트레이닝과 추론 외에도 클라우드 게임 실시간 렌더링, 클라우드폰 서비스 등에도 컴퓨팅 자원을 활용할 수 있다.
-
컴퓨팅 네트워크의 하드웨어 이질화 정도가 높으며, 컴퓨팅 네트워크의 품질과 규모는 추가로 향상되어야 한다.
-
C2C 사용자에게는 비용상의 장점이 두드러지지 않는다. B2B 사용자의 경우 비용 절감 외에도 서비스 안정성, 신뢰성, 기술 지원, 규정 준수, 법적 지원 등을 고려해야 하는데, Web3 프로젝트들은 일반적으로 이러한 부분에서 부족한 실정이다.
3 마무리 생각
AI의 폭발적 성장이 가져온 컴퓨팅 자원에 대한 막대한 수요는 의심의 여지가 없다. 2012년 이후 인공지능 트레이닝 작업에 사용되는 컴퓨팅 파워는 지수적으로 증가하고 있으며, 현재는 3.5개월마다 2배씩 증가하는 속도다(반면 무어의 법칙은 18개월마다 2배). 2012년 이후 컴퓨팅 자원에 대한 수요는 30만 배 이상 증가했으며, 무어의 법칙의 12배 증가를 훨씬 상회한다. 예측에 따르면, GPU 시장은 향후 5년간 연평균 32%의 성장률을 기록하며 2000억 달러를 넘어서게 될 것이다. AMD의 예측은 더 높아, 2027년까지 GPU 칩 시장이 4000억 달러에 이를 것으로 전망한다.

이미지 출처: https://www.stateof.ai/
인공지능과 AR/VR 렌더링과 같은 컴퓨팅 집약적 작업의 폭발적 성장은 전통적인 클라우드 컴퓨팅과 선도적인 컴퓨팅 시장에서의 구조적 비효율성을 드러냈다. 이론적으로 분산형 컴퓨팅 네트워크는 분산된 유휴 컴퓨팅 자원을 활용함으로써 더 유연하고 저비용이며 효율적인 솔루션을 제공하여 컴퓨팅 자원에 대한 거대한 시장 수요를 충족시킬 수 있다. 따라서 크립토와 AI의 결합은 거대한 시장 잠재력을 지니고 있지만, 동시에 전통 기업과의 치열한 경쟁, 높은 진입 장벽, 복잡한 시장 환경에 직면해 있다. 전체적으로 볼 때, 모든 크립토 분야를 통틀어 분산형 컴퓨팅 네트워크는 실제 수요를 얻을 가능성이 가장 높은 수직 분야 중 하나다.

이미지 출처: https://vitalik.eth.limo/general/2024/01/30/cryptoai.html
앞날은 밝지만 길은 험난하다. 위에서 언급한 비전을 실현하기 위해서는 해결해야 할 수많은 문제와 도전이 있다. 요약하면: 현재 단순히 전통적인 클라우드 서비스를 제공하는 경우, 프로젝트의 수익률은 매우 낮다. 수요 측면에서 보면, 대기업은 일반적으로 자체 컴퓨팅 인프라를 구축하며, 순수 C2C 개발자들은 대부분 클라우드 서비스를 선택한다. 실제로 분산형 컴퓨팅 네트워크를 사용하는 중소기업이 안정적인 수요를 가질지 여부는 추가로 발굴하고 검증해야 한다. 반면 AI는 상한선이 매우 높고 상상 공간이 넓은 광범위한 시장이다. 더 넓은 시장을 위해 미래의 분산형 컴퓨팅 서비스 제공업체는 모델/AI 서비스로의 전환을 필요로 하며, 더 많은 크립토+AI 사용 사례를 탐색하고 프로젝트가 창출할 수 있는 가치를 확대해야 한다. 그러나 현재로서는 AI 분야로 더 나아가기 위해 여전히 많은 문제와 도전이 존재한다:
-
가격 경쟁력이 두드러지지 않음: 앞서의 데이터 비교를 통해 분산형 컴퓨팅 네트워크의 비용상 장점이 충분히 드러나지 않았음을 알 수 있다. 그 원인은 H100, A100과 같은 수요가 큰 전문 칩의 경우 시장 메커니즘이 가격을 낮추지 않도록 하기 때문이다. 또한 분산형 네트워크는 유휴 컴퓨팅 자원을 수집할 수 있지만, 탈중앙화로 인한 규모의 경제 효과 부재, 높은 네트워크 및 대역폭 비용, 그리고 매우 높은 관리 및 운용 복잡성 등 숨겨진 비용들이 컴퓨팅 비용을 추가로 증가시킨다.
-
AI 트레이닝의 특수성: 분산형 방식으로 AI 트레이닝을 수행하는 것은 현재 기술적으로 큰 병목 현상을 겪고 있다. 이 병목 현상은 GPU의 작업 흐름에서 직접적으로 드러난다. 대규모 언어 모델 트레이닝 중 GPU는 먼저 전처리된 데이터 배치를 수신하여 순전파(forward propagation)와 역전파(backward propagation) 계산을 통해 그래디언트를 생성한다. 이후 각 GPU는 그래디언트를 집계하고 모델 파라미터를 업데이트하여 모든 GPU가 동기화되도록 한다. 이 과정은 트레이닝이 모든 배치를 완료하거나 예정된 반복 횟수에 도달할 때까지 반복된다. 이 과정에서는 대량의 데이터 전송과 동기화가 수반된다. 어떤 병렬 및 동기화 전략을 사용할지, 네트워크 대역폭과 지연 시간을 어떻게 최적화할지, 통신 비용을 줄이는 방법 등은 여전히 효과적인 해답이 없다. 현재로서는 분산형 컴퓨팅 네트워크를 이용한 AI 트레이닝은 현실성이 떨어진다.
-
데이터 보안 및 개인정보 보호: 대규모 언어 모델 트레이닝 과정에서 데이터 분배, 모델 트레이닝, 파라미터 및 그래디언트 집계 등 데이터 처리 및 전송의 각 단계에서 데이터 보안과 개인정보 문제가 발생할 수 있다. 특히 데이터 개인정보 보호는 모델 개인정보 보호보다 더 중요하다. 만약 데이터 개인정보 문제를 해결하지 못한다면 수요 측면에서 진정한 규모화는 불가능하다.
가장 현실적인 관점에서 보면, 분산형 컴퓨팅 네트워크는 현재의 수요 발굴과 미래
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News














