
FMG 보고서: AI의 세 가지 문제와 DePIN의 해결책
작성자: FMGResearch
TL; DR
AI 시대의 제품 경쟁은 자원 측면(컴퓨팅 파워, 데이터 등) 없이는 불가능하며, 특히 안정적인 자원 지원이 핵심이다.
모델 훈련/반복은 방대한 사용자 기반(IP)을 통해 데이터를 공급받아 모델 효율성에 질적 전환을 가져와야 한다.
Web3과의 융합은 중소형 AI 스타트업이 전통적인 AI 거대 기업들을 추월할 수 있는 기회를 제공한다.
DePIN 생태계에서 컴퓨팅 파워, 대역폭 등의 자원은 하한선을 결정하며(순수한 컴퓨팅 파워 통합은 차별화 요소가 되기 어렵다), AI 모델의 응용, 심층 최적화(BitTensor 유사), 전문화(Render, Hivemaper) 및 데이터의 효과적 활용 여부가 프로젝트의 상한선을 결정한다.
AI+DePIN 맥락에서 모델 추론&마이크로 튜닝, 모바일 AI 모델 시장이 주목받게 될 것이다.
AI 시장 분석 & 세 가지 문제
데이터에 따르면 2022년 9월 ChatGPT 출시 직전부터 2023년 8월까지 전 세계 상위 50개 AI 제품은 총 240억 회 이상 방문되었으며, 월 평균 증가량은 약 2.363억 회였다.
AI 제품의 번영 뒤에는 컴퓨팅 파워에 대한 의존도 심화가 있다.

출처: Language Models are Few-Shot Learners
매사추세츠대학교 애머스트 캠퍼스의 한 논문은 "인공지능 모델 하나를 훈련시키는 과정에서 배출되는 탄소량은 자동차 5대의 일생 동안 배출하는 양과 맞먹는다"고 지적했다. 그러나 이 분석은 단일 훈련만 고려한 것이며, 반복적인 재훈련을 통해 모델을 개선할 경우 에너지 소비는 크게 증가한다.
최신 언어 모델들은 수십억에서 수조 개의 가중치를 포함하고 있으며, 인기 있는 GPT-3 모델은 1750억 개의 머신러닝 파라미터를 갖는다. A100 GPU 1024개를 사용하면 해당 모델 훈련에 34일과 약 460만 달러의 비용이 든다.
AI 이후 시대의 제품 경쟁은 점차 컴퓨팅 파워 중심의 자원 전쟁으로 확대되고 있다.

출처: AI is harming our planet: addressing AI’s staggering energy cost
여기서 세 가지 문제가 도출된다. 첫째, AI 제품이 충분한 자원(컴퓨팅 파워, 대역폭 등), 특히 안정적인 자원 지원을 받고 있는가? 이러한 신뢰성은 컴퓨팅 파워의 충분한 탈중앙화를 필요로 한다. 전통 산업에서는 칩 수요 부족과 정책, 이데올로기에 기반한 '세계 벽'으로 인해 칩 제조사들이 천연적으로 우위를 점하고 있으며, 가격을 크게 올릴 수 있다. 예를 들어 NVIDIA H100 칩은 2023년 4월 3.6만 달러에서 5만 달러로 급등했으며, 이는 AI 모델 훈련팀의 비용 부담을 더욱 가중시킨다.
둘째, 자원 조건의 충족은 AI 프로젝트가 하드웨어 필수 조건을 해결하도록 도와주지만, 모델 훈련/반복은 여전히 방대한 사용자 기반(IP)이 데이터 공급을 위해 필요하다. 모델 규모가 특정 임계점을 넘어서면 다양한 작업에서 성능이 돌파구를 마련하게 된다.
셋째, 중소형 AI 스타트업이 역전하기 어렵다는 점이다. 전통 금융시장에서 컴퓨팅 파워의 독점은 AI 모델 솔루션의 독점으로 이어지고 있으며, OpenAI, Google DeepMind 등 대형 AI 모델 업체들이 스스로의 장벽을 더욱 견고히 하고 있다. 중소형 AI 팀은 더 많은 차별화된 경쟁을 모색해야 한다.
이 세 가지 문제는 모두 Web3에서 해답을 찾을 수 있다. 실제로 AI와 Web3의 융합은 오래전부터 이루어져 왔으며, 생태계도 활발하다.
아래 이미지는 Future Money Group이 제작한 AI+Web3 생태계의 일부 분야 및 프로젝트들이다.

AI+DePIN
1. DePIN의 해결책
DePIN은 탈중앙화 물리 인프라 네트워크(Decentralized Physical Infrastructure Network)의 약자이며, 사람과 장비 간 생산관계의 집합체로, 토큰 경제학과 컴퓨터, 차량용 카메라 등 하드웨어 장비를 결합하여 사용자와 장비를 유기적으로 연결하고 경제 모델의 원활한 작동을 실현한다.
보다 포괄적인 Web3 개념과 비교해 DePIN은 하드웨어 장비와 전통 기업과 밀접한 관련성을 가지므로, 외부 AI 팀과 관련 자금을 유치하는 데 천연적인 장점이 있다.
DePIN 생태계는 분산형 컴퓨팅 파워를 추구하고 기여자에게 보상을 제공함으로써 AI 제품의 컴퓨팅 파워와 IP 요구를 정확히 해결한다.
-
DePIN은 토큰 경제학을 통해 전 세계 컴퓨팅 파워(데이터센터 및 개인 유휴 컴퓨팅 파워)를 유치하여 컴퓨팅 파워의 중앙집중화 리스크를 낮추고 AI 팀의 컴퓨팅 파워 호출 비용을 절감한다.
-
DePIN 생태계의 방대하고 다변화된 IP 구성은 AI 모델이 데이터 수집 경로의 다양성과 객관성을 확보하도록 도와주며, 충분한 데이터 제공자는 AI 모델 성능 향상도 보장한다.
-
DePIN 생태계 사용자와 Web3 사용자의 인물상이 겹치기 때문에 입주한 AI 프로젝트는 Web3 특색을 지닌 더 많은 AI 모델을 개발해 차별화된 경쟁력을 형성할 수 있으며, 이는 전통 AI 시장이 갖추지 못한 강점이다.
Web2 환경에서 AI 모델 데이터 수집은 일반적으로 공개 데이터셋이나 모델 제작자가 자체적으로 수집하는데, 이는 문화적 배경과 지역의 제약을 받아 AI 모델 출력 결과에 주관적 '왜곡'이 발생할 수 있다. 또한 전통적인 데이터 수집 방식은 수집 효율성과 비용의 제약으로 인해 더 큰 모델 규모(파라미터 수, 훈련 시간, 데이터 품질)를 확보하기 어렵다. AI 모델의 경우 모델 규모가 클수록 성능이 질적으로 전환되기 쉬워진다.

출처: Large Language Models’ emergent abilities: how they solve problems they were not trained to address?
DePIN은 바로 이러한 분야에서 천연적인 장점을 갖고 있다. 예를 들어 Hivemapper는 전 세계 1920개 지역에 걸쳐 약 4만 명의 기여자가 MAP AI(지도 AI 모델)에 데이터를 제공하고 있다.

AI와 DePIN의 결합은 AI와 Web3의 융합이 새로운 차원으로 진입했음을 의미한다. 현재 Web3 내 AI 프로젝트는 주로 애플리케이션 단에서 폭발적으로 나타났으며, 거의 대부분 Web2 인프라에 직접적으로 의존하고 있다. 즉 기존의 전통 컴퓨팅 플랫폼 위에 구축된 AI 모델을 Web3 프로젝트에 삽입하는 정도이며, AI 모델 자체 생성에는 거의 관여하지 않았다.
결과적으로 Web3 요소는 항상 식물상 사슬 하류에 위치해 초과 수익을 얻지 못했다. 분산형 컴퓨팅 플랫폼 역시 마찬가지이며, 단순한 AI+컴퓨팅 파워 조합은 두 기술의 잠재력을 진정으로 발굴하지 못한다. 이 관계 속에서 컴퓨팅 파워 제공자는 추가적인 초과 이윤을 얻을 수 없으며, 생태계 구조가 너무 단순하여 토큰 경제학을 통해 성장의 선순환을 유도할 수도 없다.
그러나 AI+DePIN 개념은 이러한 고정된 관계를 깨고 Web3의 관심을 훨씬 광범위한 AI 모델 영역으로 전환시키고 있다.
2. AI+DePIN 프로젝트 종합
DePIN 내부는 AI가 절실하게 필요로 하는 장비(컴퓨팅 파워, 대역폭, 알고리즘, 데이터), 사용자(모델 훈련 데이터 제공자), 그리고 생태계 내 인센티브 메커니즘(토큰 경제학)을 자연스럽게 보유하고 있다.
감히 다음과 같은 정의를 내릴 수 있다. AI에 완비된 객관적 조건(컴퓨팅 파워/대역폭/데이터/IP)을 제공하고, AI 모델(훈련/추론/마이크로 튜닝) 적용 사례를 제공하며, 토큰 경제학이 부여된 프로젝트를 AI+DePIN이라 정의할 수 있다.
Future Money Group은 아래 AI+DePIN의 전형적 패턴들을 정리해 제시할 것이다.

우리는 제공되는 자원 유형에 따라 컴퓨팅 파워, 대역폭, 데이터, 기타의 네 가지 부문으로 나누어 각각의 프로젝트들을 정리해 본다.
2.1 컴퓨팅 파워
컴퓨팅 파워 부문은 AI+DePIN의 주요 구성 요소이자 현재 가장 많은 프로젝트가 몰려 있는 분야다. 컴퓨팅 파워의 주요 구성은 GPU(그래픽 처리 장치), CPU(중앙 처리 장치), TPU(전문 머신러닝 칩)이다. 이 중 TPU는 제조 난이도가 매우 높아 Google이 주로 개발하며, 클라우드 컴퓨팅 파워 임대 서비스만 제공하므로 시장 규모가 작다. GPU는 CPU와 유사하지만 더 전문화된 하드웨어 컴포넌트로, 일반 CPU보다 복잡한 수학 연산의 병렬 처리를 훨씬 효율적으로 수행할 수 있다. 초기 GPU는 게임 및 애니메이션의 그래픽 렌더링 작업에 특화되어 있었으나, 현재 그 용도는 이를 훨씬 초월했다. 따라서 현재 컴퓨팅 파워 시장의 주요 공급원은 GPU다.
따라서 우리가 접하는 대부분의 컴퓨팅 파워 기반 AI+DePIN 프로젝트는 그래픽 및 비디오 렌더링 또는 관련 게임 분야에 특화되어 있는데, 이는 GPU의 특성 때문이다.
전반적으로 보면, 컴퓨팅 파워 기반 AI+DePIN 제품의 주요 공급원은 세 부분으로 구성된다: 전통적인 클라우드 컴퓨팅 서비스 제공업체, 개인 유휴 컴퓨팅 파워, 자체 컴퓨팅 파워. 이 중 클라우드 컴퓨팅 서비스 제공업체가 가장 큰 비중을 차지하고, 개인 유휴 컴퓨팅 파워가 그 다음이다. 이는 해당 제품들이 대부분 컴퓨팅 파워 중개자 역할을 한다는 것을 의미한다. 수요 측은 각종 AI 모델 개발 팀들이다.
현재 이 분류에서 컴퓨팅 파워는 거의 100% 활용되지 못하고 대다수가 유휴 상태다. 예를 들어 Akash Network는 현재 사용 중인 컴퓨팅 파워가 약 35%이며, 나머지는 유휴 상태다. io.net도 비슷한 상황이다.
이는 아마도 현재 AI 모델 훈련 수요가 아직 적기 때문이며, 동시에 AI+DePIN이 저렴한 컴퓨팅 파워 비용을 제공할 수 있는 이유이기도 하다. 향후 AI 시장 확대와 함께 이 상황은 개선될 것으로 보인다.
Akash Network: 탈중앙화 P2P 클라우드 서비스 시장
Akash 네트워크는 탈중앙화된 P2P 클라우드 서비스 시장으로, 일반적으로 클라우드 서비스의 에어비앤비(Airbnb)라고 불린다. Akash 네트워크는 다양한 규모의 사용자와 기업이 빠르고 안정적이며 경제적으로 서비스를 이용할 수 있도록 한다.
Render와 유사하게 Akash 역시 사용자에게 GPU 배포, 임대 및 AI 모델 훈련 서비스를 제공한다.
2023년 8월, Akash는 Supercloud을 출시하여 개발자가 원하는 가격을 설정해 AI 모델을 배포할 수 있도록 했으며, 여분의 컴퓨팅 능력을 가진 제공업체가 사용자의 모델을 호스팅할 수 있도록 했다. 이 기능은 에어비앤비와 매우 유사하게 제공업체가 미사용 용량을 임대할 수 있게 한다.
공개 입찰 방식을 통해 자원 제공업체가 네트워크 내 유휴 컴퓨팅 자원을 개방하도록 유도함으로써 Akash Network는 자원의 더 효율적인 활용을 실현하고, 자원 수요 측에 경쟁력 있는 가격을 제공한다.

현재 Akash 생태계의 총 GPU 수는 176개이며, 활성화된 수는 62개로 활성화율은 35%이며, 2023년 9월의 50% 수준보다 낮다. 예상 일일 수입은 약 5000달러다. AKT 토큰은 스테이킹 기능을 갖추고 있어 사용자가 토큰을 스테이킹함으로써 네트워크 보안 유지에 참여하고 연 13.15% 수준의 수익을 얻을 수 있다.
Akash는 현재 AI+DePIN 분야에서 비교적 우수한 데이터 성과를 보이고 있으며, Render 및 BitTensor와 비교해 7억 달러의 FDV는 상당한 상승 여지를 지닌다.
또한 Akash는 BitTensor 서브넷에도 접속하여 자체 성장 공간을 확대하고 있다. 전반적으로 Akash는 AI+DePIN 분야의 우수한 프로젝트 중 하나로서 기본적인 면모가 탁월하다.
io.net: 가장 많은 GPU를 접속한 AI+DePIN
io.net은 탈중앙화된 컴퓨팅 네트워크로, Solana 블록체인 상에서 ML(머신러닝) 애플리케이션의 개발, 실행 및 확장을 지원하며, 세계 최대 규모의 GPU 클러스터를 활용해 머신러닝 엔지니어가 중앙화된 서비스 비용의 일부 수준으로 분산형 클라우드 서비스 컴퓨팅 파워를 임대하고 접근할 수 있도록 한다.
공식 데이터에 따르면 io.net은 100만 개 이상의 대기 상태 GPU를 보유하고 있다. 또한 io.net은 Render와의 협력을 통해 배포 가능한 GPU 자원도 확대했다.
io.net 생태계의 GPU는 많지만 거의 모두 다양한 클라우드 컴퓨팅 업체들과의 협력 및 개인 노드 접속을 통해 유입되며, 유휴율이 높다. 가장 많은 RTX A6000을 예로 들면, 8426개의 GPU 중 11%(927개)만이 사용 중이며, 다른 모델의 GPU는 거의 사용되지 않고 있다. 하지만 현재 io.net 제품의 주요 장점은 가격이 저렴하다는 점이다. Akash의 경우 GPU 호출 비용이 시간당 1.5달러인데 비해, io.net은 0.1~1달러 사이로 낮출 수 있다.

향후 io.net은 IO 생태계의 GPU 제공업체가 원생 자산을 담보로 제공함으로써 사용 기회를 높이는 것을 고려하고 있다. 자산을 더 많이 투입할수록 선택될 가능성이 커진다. 또한 담보 제공한 AI 엔지니어 역시 고성능 GPU를 사용할 수 있다.
GPU 접속 규모 면에서 io.net은 본문에서 소개된 10개 프로젝트 중 가장 크다. 유휴율을 제외하더라도 사용 중인 GPU 수에서도 1위다. 토큰 경제학 측면에서 io.net의 원생 토큰 및 프로토콜 토큰 IO는 2024년 1분기에 출시될 예정이며, 최대 공급량은 22,300,000개다. 네트워크 사용 시 5%의 수수료가 부과되며, 이 수수료는 IO 토큰 소각 또는 공급 및 수요 양측의 신규 사용자 인센티브에 사용된다. 토큰 모델은 명백한 상승 특성을 지니고 있어 io.net은 아직 토큰을 출시하지 않았음에도 불구하고 시장에서의 인기가 매우 높다.
Golem: CPU 중심의 컴퓨팅 파워 시장
Golem은 탈중앙화 컴퓨팅 파워 시장으로, 누구나 공유 자원 네트워크를 만들어 컴퓨팅 자원을 공유하고 집적할 수 있도록 지원한다. Golem은 사용자에게 컴퓨팅 파워 임대 서비스를 제공한다.
Golem 시장은 세 부분으로 구성된다: 컴퓨팅 파워 공급자, 컴퓨팅 파워 수요자, 소프트웨어 개발자. 컴퓨팅 파워 수요자가 계산 작업을 제출하면, Golem 네트워크는 RAM, 디스크 공간, CPU 코어 수 등을 제공하는 적절한 컴퓨팅 파워 공급자에게 작업을 분배하며, 작업 완료 후 양측은 토큰을 통해 결제한다.

Golem은 주로 CPU를 사용해 컴퓨팅 파워를 누적하며, 비용 면에서 GPU보다 저렴하다(Intel i9 14900k는 약 700달러, A100 GPU는 12,000~25,000달러). 그러나 CPU는 고병렬 처리가 불가능하며 에너지 소모가 더 크다. 따라서 CPU 기반 컴퓨팅 파워 임대는 서사 측면에서 GPU 기반 프로젝트보다 다소 약한 편이다.
Magnet AI: AI 모델 자산화
Magnet AI는 GPU 컴퓨팅 파워 제공업체를 통합하여 다양한 AI 모델 개발자에게 모델 훈련 서비스를 제공한다. 다른 AI+DePIN 제품과 달리 Magnet AI는 다양한 AI 팀이 자체 모델을 기반으로 ERC-20 토큰을 발행할 수 있도록 허용하며, 사용자가 다양한 모델과 상호작용함으로써 다양한 모델 토큰 에어드랍 및 추가 보상을 받을 수 있다.
2024년 2분기, Magnet AI는 Polygon zkEVM 및 Arbrium에 출시될 예정이다.
io.net과 다소 유사하게 GPU 컴퓨팅 파워를 통합하고 AI 팀에게 모델 훈련 서비스를 제공한다는 점에서 같다.
차이점은 io.net이 GPU 자원 통합에 더 집중하여 다양한 GPU 클러스터, 기업 및 개인이 GPU를 기여하고 보상을 받는 것을 장려하며, 컴퓨팅 파워 중심이라는 점이다.
Magnet AI는 AI 모델에 더 집중하는 것처럼 보이며, AI 모델 토큰의 존재로 인해 토큰, 에어드랍을 통해 사용자 유치 및 유지가 가능하며, 이러한 AI 모델 자산화 방식을 통해 AI 개발자의 입주를 촉진할 수 있다.
간단히 말해, Magnet은 GPU로 시장(集市)을 구축한 것으로, 모든 AI 개발자와 모델 배포자가 위에서 ERC-20 토큰을 발행할 수 있으며, 사용자는 다양한 토큰을 획득하거나 적극적으로 보유할 수 있다.
Render: 그래픽 렌더링형 AI 모델 전문 플레이어
Render Network는 탈중앙화 GPU 기반 렌더링 솔루션 제공업체로, 블록체인 기술을 통해 창작자와 유휴 GPU 자원을 연결해 하드웨어 제한을 제거하고 시간과 비용을 줄이며, 디지털 저작권 관리를 제공함으로써 메타버스 발전을 촉진하는 것을 목표로 한다.
Render 백서에 따르면, Render를 기반으로 예술가, 엔지니어, 개발자는 AI 보조 3D 콘텐츠 생성, AI 가속 전체 렌더링, Render의 3D 장면도 데이터를 활용한 관련 AI 모델 훈련 등 일련의 AI 애플리케이션을 만들 수 있다.
Render는 AI 개발자에게 Render Network SDK를 제공하며, 개발자는 Render의 분산형 GPU를 활용해 NeRF(신경 반사장), LightField 렌더링 과정부터 생성형 AI 작업까지 다양한 AI 계산 작업을 수행할 수 있다.
Global Market Insights의 보고서에 따르면, 전 세계 3D 렌더링 시장 규모는 약 60억 달러에 이를 것으로 예상된다. FDV가 22억 달러인 Render는 여전히 성장 여지가 있다.
현재 Render의 GPU 기반 구체적 데이터는 확인할 수 없지만, Render의 배후 기업 OTOY는 여러 차례 애플사와의 관련성을 보여줬으며, 사업 범위가 광범위하다. OTOY의 대표 렌더러 OctaneRender는 VFX, 게임, 모션 디자인, 건축 시각화 및 시뮬레이션 분야에서 Unity3D 및 Unreal 엔진을 비롯한 모든 주요 3D 도구 세트를 원생 지원한다.
또한 구글과 마이크로소프트가 RNDR 네트워크에 참여했다. Render는 2021년 약 25만 건의 렌더링 요청을 처리했으며, 생태계 내 예술가들이 NFT를 통해 약 50억 달러의 매출을 올렸다.
따라서 Render의 참조 가치 평가는 광범위한 렌더링 시장 잠재력(약 300억 달러)을 기준으로 삼아야 한다. BME(소각 및 발행 균형) 경제 모델을 포함하면 순수 토큰 가격이나 FDV 측면에서 Render는 여전히 상당한 상승 여지를 지닌다.
Clore.ai: 비디오 렌더링
Clore.ai는 PoW 기반의 GPU 컴퓨팅 파워 임대 서비스 플랫폼이다. 사용자는 자신의 GPU를 임대하여 AI 훈련, 비디오 렌더링, 암호화폐 채굴 등의 작업에 사용할 수 있으며, 다른 사람들이 이를 저렴한 가격으로 이용할 수 있다.
업무 범위에는 인공지능 훈련, 영화 렌더링, VPN, 암호화폐 채굴 등이 포함된다. 구체적인 컴퓨팅 파워 서비스 수요가 있을 때는 네트워크 할당 작업을 완료하고, 컴퓨팅 파워 서비스 수요가 없을 때는 네트워크가 당시 채굴 수익률이 가장 높은 암호화폐를 찾아 채굴에 참여한다.

지난 6개월 동안 Clore.ai의 GPU 수는 2000개에서 약 9000개로 증가했으며, GPU 통합 수량 측면에서 Akash를 초과한다. 그러나 이들의 2차 시장 FDV는 Akash의 약 20% 수준에 불과하다.
토큰 모델 측면에서 CLORE는 POW 채굴 모드를 채택하며, 사전 채굴이나 ICO 없이 각 블록의 50%를 채광자에게, 40%를
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News










