
Hack VC 파트너: AI + Crypto의 8가지 진정한 이점
글: Ed Roman, Hack VC 대표 파트너
번역: 1912212.eth, Foresight News
AI + 암호화폐는 최근 암호화폐 시장에서 주목받는 최첨단 분야 중 하나로, 탈중앙화된 AI 훈련, GPU DePIN 및 검열 저항형 AI 모델 등이 포함된다.
눈부신 발전 뒤에서 우리는 물어야 한다. 이는 진정한 기술적 돌파구인가, 아니면 단지 유행을 쫓는 것일까? 본 글은 암호화폐 x AI의 개념과 논의를 명확히 하고, 그 안에 숨겨진 진정한 도전과 기회를 조명하며, 어떤 것이 공허한 약속이고 어떤 것이 실현 가능할지를 밝혀줄 것이다.
개념 #1: 탈중앙화된 AI 훈련
체인 상에서 AI를 훈련시키는 문제는 역전파(backpropagation)를 필요로 하기 때문에 GPU 간 고속 통신과 조율이 필수라는 점이다. NVIDIA는 이를 위해 NVLink와 InfiniBand 두 가지 혁신을 개발했다. 이러한 기술들은 GPU 간 통신 속도를 극도로 빠르게 만들지만, 로컬 기술에 국한되어 있으며 단일 데이터센터 내에 위치한 GPU 클러스터(50+ 기가비트 속도)에만 적용 가능하다.
탈중앙화 네트워크를 도입하면 네트워크 지연과 대역폭 증가로 인해 속도가 급격히 느려진다. 데이터센터 내 NVIDIA 고속 인터커넥트에서 얻을 수 있는 처리량과 비교하면, AI 훈련 작업에는 현실적으로 불가능한 수준이다.
다음과 같은 혁신들이 미래에 희망을 줄 수 있음을 참고하라:
-
InfiniBand 위에서의 대규모 분산 훈련. NVIDIA 자체가 NVIDIA Collective Communications Library를 통해 InfiniBand 상에서 비로컬 분산 훈련을 지원하고 있다. 그러나 아직 초기 단계이며 채택 지표는 미정이다. 거리상의 물리 법칙 한계는 여전히 존재하므로, InfiniBand 상의 로컬 훈련이 훨씬 더 빠르다.
-
통신 동기화 시간을 줄이는 새로운 탈중앙화 훈련 연구들이 발표되고 있다. 이는 장기적으로 탈중앙화 훈련을 더욱 실용적으로 만들 수 있다.
-
모델 훈련을 위한 스마트 샤딩(sharding)과 스케줄링은 성능 향상에 기여한다. 또한 새로운 모델 아키텍처는 미래의 분산형 인프라를 위해 특별히 설계될 수 있다(Gensyn이 이 분야를 연구 중).
데이터 훈련 부분 역시 도전 과제다. 모든 AI 훈련 과정은 대량의 데이터 처리를 포함한다. 일반적으로 모델은 확장성과 성능이 뛰어난 중앙집중식 보안 데이터 저장소에서 훈련된다. 수 TB의 데이터 전송 및 처리가 필요하며, 일회성 프로세스가 아니다. 데이터는 종종 노이즈와 오류로 가득 차 있어 훈련 전 정제와 유용한 형식으로 변환이 필요하다. 표준화, 필터링, 결측값 처리 등의 반복 작업이 필요하다. 이러한 모든 과정은 탈중앙화 환경에서는 심각한 어려움을 겪는다.
데이터 훈련은 또한 반복적인 과정인데, 이는 Web3와 호환되지 않는다. OpenAI는 수천 번의 반복을 거쳐 결과를 얻었다. AI 팀에서 데이터 과학자의 기본 작업은 목표 설정, 데이터 준비, 데이터 분석 및 정리, 인사이트 추출, 모델링 적합성 확보, 머신러닝 모델 개발 및 테스트 데이터셋으로 성능 검증이다. 이 과정은 반복적이며, 현재 모델이 기대에 못 미치면 전문가는 데이터 수집 또는 모델 훈련 단계로 돌아가 결과를 개선해야 한다. 이 과정을 탈중앙화 환경에서 수행한다고 상상해보라. 기존의 최첨단 프레임워크와 도구들을 Web3에 맞추는 것은 쉽지 않다.
체인 상에서 AI 모델을 훈련시키는 또 다른 문제는 추론(inference)에 비해 시장성이 낮다는 점이다. 현재 AI 대규모 언어 모델(Large Language Models, LLMs) 훈련에는 엄청난 GPU 컴퓨팅 자원이 필요하다. 장기적으로는 추론이 GPU의 주요 응용 분야가 될 것이다. 전 세계 수요를 충족하기 위해 얼마나 많은 AI 대규모 언어 모델을 훈련시켜야 할지, 그리고 이들 모델을 사용하는 고객 수와 비교했을 때 어느 쪽이 더 많을지 생각해보라?
개념 #2: 과도한 중복 AI 추론 계산을 통한 합의 달성
암호화폐와 AI 관련 또 다른 도전 과제는 AI 추론의 정확성을 검증하는 것이다. 왜냐하면 추론 작업을 수행하는 단일 중심화된 당사자를 완전히 신뢰할 수 없으며, 노드가 부정행위를 할 가능성도 있기 때문이다. 이 문제는 Web2 AI에서는 존재하지 않는다. 왜냐하면 탈중앙화된 합의 시스템이 없기 때문이다.
해결책은 중복 계산(redundant computation)으로, 여러 노드가 동일한 AI 추론 작업을 반복하여 신뢰하지 않는 환경에서도 실행되도록 하고, 단일 실패 지점을 방지하는 것이다.
그러나 이 방법의 문제는 고급 AI 칩이 극심하게 부족하다는 점이다. 고급 NVIDIA 칩의 대기 시간이 수년에 달하면서 가격이 상승하고 있다. 만약 AI 추론을 여러 노드에서 여러 번 재실행하도록 요구한다면, 비용이 배로 증가하여 많은 프로젝트에게는 실현 불가능해진다.
개념 #3: 최근의 특정 Web3 기반 AI 활용 사례
Web3가 Web3 고객만을 위한 독자적인 AI 활용 사례를 가져야 한다는 제안이 있다. 예를 들어 DeFi 풀에 대한 리스크 평가를 제공하는 Web3 프로토콜, 지갑 이력 기반으로 새 프로토콜을 추천하는 Web3 지갑, 혹은 AI로 비플레이어 캐릭터(NPC)를 제어하는 Web3 게임 등이 있다.
현재로서는 초기 시장(단기적으로)이며, 사용 사례는 여전히 탐색 단계다. 몇 가지 도전 과제는 다음과 같다:
-
수요가 아직 초기 단계이므로 Web3 원생(use case)에 필요한 잠재적 AI 트랜잭션이 적다.
-
고객 수가 적으며, Web2 고객에 비해 수십 배 이상 적으므로 시장의 탈중앙화 정도가 낮다.
-
고객 자체가 불안정하며, 자금이 적은 스타트업들이 대부분이어서 일부는 시간이 지남에 따라 사라질 수 있다. Web3 고객을 위한 Web3 AI 서비스 제공업체는 사라진 고객을 대체하기 위해 고객층을 재확보해야 하며, 이는 사업 확장에 큰 도전이 된다.
장기적으로는 특히 AI 에이전트가 보편화됨에 따라 Web3 고유의 AI 활용 사례에 매우 긍정적인 전망을 갖고 있다. 우리는 미래에 각 Web3 사용자가 자신의 작업을 도와주는 다수의 AI 에이전트를 갖게 될 것으로 상상한다.
개념 #4: 소비자용 GPU DePIN
많은 탈중앙화된 AI 컴퓨팅 네트워크는 데이터센터가 아닌 소비자용 GPU에 의존한다. 소비자용 GPU는 저수준 AI 추론 작업이나 지연, 처리량, 신뢰성에 유연성이 요구되는 소비자용 사례에 적합하다. 그러나 중요한 시장의 대부분을 차지하는 심각한 기업용 사례의 경우, 가정용 컴퓨터보다 더 높은 신뢰성의 네트워크를 요구하며, 복잡한 추론 작업이 있으면 일반적으로 고성능 GPU가 필요하다. 따라서 고가치 고객 사례에는 데이터센터가 더 적합하다.
소비자용 GPU는 데모 및 낮은 신뢰성도 감내할 수 있는 개인 및 스타트업에게는 적합하다고 생각한다. 그러나 이러한 고객들의 가치는 낮기 때문에, 장기적으로는 Web2 기업을 위해 맞춤화된 DePIN이 더 큰 가치를 가질 것이라 판단한다. 따라서 GPU DePIN 프로젝트들은 초기에 주로 소비자용 하드웨어를 사용했지만, 이제 A100/H100과 클러스터 수준의 가용성을 갖춘 구조로 진화하고 있다.
현실 — 암호화폐 x AI의 실제 활용 사례
이제 실제로 실질적인 이점을 제공할 수 있는 사례를 살펴보자. 이것이 바로 진정한 승리이며, 암호화폐 x AI가 명확한 가치를 추가할 수 있는 영역이다.
실질적 이점 #1: Web2 고객 서비스
맥킨지는 분석된 63개의 사례에서 생성형 AI가 매년 2.6조~4.4조 달러의 수익을 창출할 수 있다고 추정했다. 이는 2021년 영국 GDP 3.1조 달러와 비교해도 큰 규모다. 이는 AI의 영향력을 15%~40%까지 끌어올릴 수 있다는 의미다. 생성형 AI를 기존 사례 외의 다른 작업 소프트웨어에 통합하는 효과까지 고려하면, 영향력은 약 두 배로 증가할 수 있다.
위 추정치를 기반으로 계산하면, 전 세계 AI(생성형 AI 이상) 시장 전체 가치는 수십조 달러에 이를 수 있다. 반면 현재 모든 암호화폐(비트코인 및 모든 알트코인 포함)의 총 시가총액은 약 2.7조 달러 수준이다. 현실을 직시하자. 단기적으로 AI가 필요한 대부분의 고객은 Web2 고객이며, AI가 필요한 Web3 고객은 2.7조 달러 중 극소수만 차지할 것이다(BTC 자체는 이 시장에 속하지만, 비트코인은 AI를 필요로 하거나 사용하지 않는다).
Web3 기반 AI 활용 사례는 막 시작 단계이며, 시장 규모가 얼마나 될지는 아직 불분명하다. 그러나 한 가지 확실한 것은, 예측 가능한 미래에도 Web2 시장의 극소수만 차지한다는 점이다. 우리는 Web3 기반 AI에 밝은 미래가 있다고 믿지만, 이는 현재 가장 강력한 Web3 AI 응용 분야가 Web2 고객을 서비스한다는 것을 의미한다.
Web3 AI로부터 혜택을 받을 수 있는 Web2 고객의 예시는 다음과 같다:
-
AI 중심의 수직 전문화 소프트웨어 회사를 처음부터 구축하는 기업(예: Cedar.ai, Observe.ai)
-
자체 목적을 위해 모델을 미세 조정하는 대기업(예: Netflix)
-
급성장하는 AI 제공업체(예: Anthropic)
-
기존 제품에 AI를 통합하는 소프트웨어 회사(예: Canva)
이들은 규모가 크고 가치 있는 고객이므로 비교적 안정적인 고객 기반이다. 빠르게 문을 닫을 가능성도 낮으며, AI 서비스의 거대한 잠재 고객을 나타낸다. Web2 고객에게 서비스를 제공하는 Web3 AI 서비스는 이러한 안정적인 고객 기반에서 이점을 얻을 수 있다.
그러나 왜 Web2 고객이 Web3 스택을 사용하고 싶어할까? 다음 섹션에서 이를 설명하겠다.
실질적 이점 #2: GPU DePIN을 통한 GPU 사용 비용 절감
GPU DePIN은 미활용된 GPU 컴퓨팅 능력(가장 신뢰할 수 있는 것은 데이터센터에서 나오는 것)을 집약하여 AI 추론에 사용할 수 있도록 한다. 이를 쉽게 이해하는 비유는 "GPU의 에어비앤비"다.
GPU DePIN에 대해 기대하는 이유는, 앞서 언급했듯이 NVIDIA 칩 부족 현상이 있고, 현재 AI 추론에 활용 가능한 낭비된 GPU 사이클이 존재하기 때문이다. 하드웨어 소유자는 이미 묵시적 비용(sunk cost)을 지불했으며 장비를 충분히 활용하지 않고 있으므로, 기존 상황과 비교해 훨씬 낮은 비용으로 이들 GPU 일부를 제공할 수 있다. 이는 사실상 하드웨어 소유자에게 '돈을 찾아주는' 셈이다.
예시는 다음과 같다:
-
AWS 머신. 오늘날 AWS에서 H100을 렌트하려면 공급 제약으로 인해 1년 계약을 해야 한다. 하지만 당신은 연중 365일, 주 7일 내내 GPU를 사용하지 않을 수 있으므로 이는 낭비다.
-
Filecoin 채굴 하드웨어. Filecoin은 대량의 보조금이 있지만 실제 수요는 부족하다. Filecoin은 실질적인 제품-시장 적합(Product-Market Fit)을 찾지 못했기 때문에 채굴자들은 폐업 위기에 처해 있다. 이러한 기계는 GPU를 장착하고 있어 저수준 AI 추론 작업에 재사용될 수 있다.
-
ETH 채굴 하드웨어. 이더리움이 PoW에서 PoS로 전환할 당시, 많은 하드웨어가 급속도로 해방되어 AI 추론에 재사용될 수 있었다.
모든 GPU 하드웨어가 AI 추론에 적합한 것은 아니다. 가장 명백한 이유는 오래된 GPU가 LLM에 필요한 메모리 용량을 갖추지 못했기 때문인데, 이를 보완하는 흥미로운 혁신도 일부 있다. 예를 들어 Exabits의 기술은 활성 뉴런은 GPU 메모리에, 비활성 뉴런은 CPU 메모리에 로드한다. 어떤 뉴런이 활성/비활성 상태인지 예측함으로써, 메모리가 제한된 저가 GPU라도 AI 워크로드를 처리할 수 있게 만든다. 이는 저가 GPU의 AI 추론 활용도를 실질적으로 높인다.
Web3 기반 AI DePIN은 시간이 지남에 따라 제품을 발전시키고 SSO(싱글 사인온), SOC 2 준수, SLA(서비스 수준 계약) 등 기업급 서비스를 제공해야 한다. 이는 현재 클라우드 제공업체가 Web2 고객에게 제공하는 서비스와 유사하다.
실질적 이점 #3: OpenAI의 자기 검열을 피하는 검열 저항형 모델
AI 검열에 관한 논의가 많다. 예를 들어 터키는 OpenAI를 일시적으로 금지했다(후에 OpenAI가 규정 준수를 강화하자 정책을 철회했다). 국가 차원의 검열은 흥미롭지 않다고 생각한다. 왜냐하면 각국은 경쟁력을 유지하기 위해 AI를 채택해야 하기 때문이다.
OpenAI는 스스로 검열도 한다. 예를 들어 NSFW 콘텐츠는 처리하지 않는다. 다음 대통령 선거 결과도 예측하지 않는다. 우리는 AI 활용 사례가 정치적 이유로 OpenAI가 건드리지 않는 시장을 포함하고 있으며, 이 시장은 흥미롭고 규모가 크다고 본다.
오픈소스는 좋은 해결책이다. 깃허브 저장소는 주주나 이사회 영향을 받지 않기 때문이다. Venice.ai는 개인정보 보호와 검열 저항 운영을 약속한다. Web3 기반 AI는 이러한 오픈소스(OSS) 모델을 저렴한 GPU 클러스터에서 추론을 수행하도록 지원함으로써 실질적으로 수준을 높일 수 있다. 이런 이유로 우리는 OSS + Web3가 검열 저항형 AI를 위한 이상적인 조합이라고 믿는다.
실질적 이점 #4: OpenAI에 개인정보를 보내는 것 방지
대기업은 내부 데이터에 대한 개인정보 보호 우려가 있다. 이러한 고객들에게 제3자인 OpenAI가 데이터를 소유하는 것을 신뢰하기 어렵다.
Web3에서는 이러한 기업의 내부 데이터가 탈중앙화 네트워크에 갑자기 등장하는 것이 더 걱정스럽게 보일 수 있다(겉보기에는). 그러나 AI를 위한 개인정보 보호 기술에는 혁신이 존재한다:
Trusted Execution Environment(TEE), 예: Super Protocol
완전동형암호(FHE), 예: Fhenix.io(Hack VC 운용 펀드 포트폴리오 기업) 또는 Inco Network(Zama.ai 기반), 그리고 Bagel의 PPML
이 기술들은 계속 발전 중이며, 곧 출시될 ZK 및 FHE ASIC 덕분에 성능도 계속 향상되고 있다. 장기 목표는 모델 미세 조정 중 기업 데이터를 보호하는 것이다. 이러한 프로토콜이 등장함에 따라 Web3는 개인정보 보호 AI 컴퓨팅에 더 매력적인 장소가 될 수 있다.
실질적 이점 #5: 오픈소스 모델의 최신 혁신 활용
지난 수십 년간 오픈소스 소프트웨어(OSS)는 독점 소프트웨어 시장을 꾸준히 잠식해왔다. 우리는 LLM을 OSS가 위협할 수 있는 일종의 독점 소프트웨어 형태로 본다. 주목할 만한 경쟁자로는 Llama, RWKV, Mistral.ai 등이 있다. 시간이 지남에 따라 이 리스트는 더욱 늘어날 것이며(더 포괄적인 리스트는 Openrouter.ai에서 확인 가능하다). Web3 기반 AI(이러한 OSS 모델 기반)를 활용하면 이러한 새로운 혁신을 바탕으로 혁신을 이뤄낼 수 있다.
우리는 시간이 지남에 따라 전 세계 오픈소스 개발자들과 암호화폐 인센티브가 결합되면, 오픈소스 모델뿐 아니라 그 위에 구축된 에이전트 및 프레임워크의 급속한 혁신이 가능하다고 믿는다. AI 에이전트 프로토콜의 예로는 Theoriq가 있다. Theoriq은 OSS 모델을 활용해 조합 가능한 AI 에이전트 네트워크를 만들고, 이를 조립해 고차원 AI 솔루션을 창출한다.
이에 대해 자신감을 갖는 이유는, 과거를 보면 대부분의 '개발자 소프트웨어' 혁신이 결국 OSS에 의해 초월되었기 때문이다. 마이크로소프트는 과거 독점 소프트웨어 회사였지만, 지금은 깃허브에 기여하는 1위 회사다. Databricks, PostgreSQL, MongoDB 등이 독점 데이터베이스를 어떻게 무너뜨렸는지를 보면, OSS가 산업 전체를 뒤바꾸는 전례가 명확하므로 여기서도 설득력 있는 사례가 된다.
하지만 여기에도 문제가 있다. 오픈소스 대규모 언어 모델(OSS LLMs)의 문제점 중 하나는 OpenAI가 Reddit, 뉴욕타임스 등의 조직과 유료 데이터 라이선스 계약을 체결하기 시작했다는 점이다. 이 추세가 계속된다면, 데이터 접근에 재정적 장벽이 생기면서 오픈소스 LLM이 경쟁하기 어려워질 수 있다. NVIDIA는 보안 데이터 공유를 위해 기밀 컴퓨팅(confidential computing)에 대한 투자를 더욱 강화할 수도 있다. 시간이 모든 것을 밝혀줄 것이다.
실질적 이점 #6: 높은 벌금 부과를 통한 무작위 샘플링 또는 ZK 증명으로 합의 달성
Web3 기반 AI 추론의 도전 과제 중 하나는 검증이다. 검증자가 결과를 조작해 수수료를 벌 가능성이 있으므로, 추론 검증은 중요한 조치다. 아직 이러한 부정행위는 발생하지 않았지만, AI 추론이 초기 단계이기 때문이며, 이를 억제하는 조치가 없다면 결국 발생할 수밖에 없다.
표준 Web3 방법은 여러 검증기가 동일한 작업을 반복하고 결과를 비교하는 것이다. 앞서 언급했듯이, 이 방법의 주요 도전 과제는 고급 NVIDIA 칩 부족으로 인해 AI 추론 비용이 매우 비싸다는 점이다. Web3는 미활용 GPU DePIN을 통해 더 저렴한 추론을 제공할 수 있으므로, 중복 계산은 Web3의 가치 제안을 크게 약화시킨다.
더 유망한 해결책은 오프체인 AI 추론 계산에 대해 ZK 증명을 수행하는 것이다. 이 경우 간결한 ZK 증명을 검증함으로써 모델이 올바르게 훈련되었는지, 또는 추론이 정확히 실행되었는지 확인할 수 있다(이를 zkML이라 함). 예시로는 Modulus Labs와 ZKonduit가 있다. ZK 연산은 계산 집약적이므로, 이러한 솔루션의 성능은 아직 초기 단계다. 그러나 곧 출시될 ZK 하드웨어 ASIC 덕분에 상황이 개선될 것으로 예상된다.
또 다른 유망한 아이디어는 다소 '낙관적(Optimistic)'인 샘플링 기반 AI 추론 접근법이다. 이 모델에서는 검증자가 생성한 결과의 일부만 검증하지만, 발견 시 부과되는 벌금을 충분히 높게 설정함으로써 검증자의 부정행위에 강력한 경제적 억제를 가한다. 이를 통해 중복 계산 비용을 절약할 수 있다.
또 다른 유망한 아이디어는 워터마킹 및 지문 솔루션이다. Bagel Network가 제안한 솔루션이 그것이다. 이는 아마존 알렉사가 수백만 대의 기기에 장착된 AI 모델의 품질을 보장하는 메커니즘과 유사하다.
실질적 이점 #7: OSS를 통한 비용 절감(OpenAI의 수익)
Web3가 AI에 가져오는 다음 기회는 비용 민주화다. 지금까지는 DePIN을 통한 GPU 비용 절감을 논했다. 그러나 Web3는 OpenAI(본문 작성 시 연 매출 10억 달러 이상)와 같은 중앙화된 Web2 AI 서비스의 마진도 절감할 수 있는 기회를 제공한다. 이 비용 절감은 모델 생성자가 수익을 추구하지 않는 오픈소스 모델을 사용함으로써 추가적인 절감이 가능하다는 사실에서 비롯된다.
많은 OSS 모델은 완전 무료로 유지되어 고객에게 최상의 경제적 이점을 제공할 것이다. 그러나 일부 OSS 모델은 수익화 방법을 시도할 수도 있다. Hugging Face의 모든 모델 중 단 4%만 예산을 가진 기업이 훈련한 것이다. 나머지 96%는 커뮤니티에 의해 훈련되었다. 이 집단(96%의 Hugging Face)은 계산 및 데이터 비용 등 기본적인 실질 비용을 부담한다. 따라서 이 모델들은 어떤 방식으로든 수익화가 필요하다.
OSS 모델 수익화를 위한 제안들이 있다. 그 중 가장 흥미로운 것은 '초기 모델 발행(IMI)' 개념으로, 모델 자체를 토큰화하고, 일부 토큰은 팀이 보유하며, 모델의 미래 수익 일부를 토큰 홀더에게 분배하는 것이다. 물론 이 분야에는 법적·규제적 장애물도 존재한다.
다른 OSS 모델들은 사용 기반 수익화를 시도할 수 있다. 만약 이것이 현실화된다면, OSS 모델은 점점 Web2 수익 모델과 유사해질 수 있다. 그러나 실제로는 시장이 두 갈래로 나뉘어, 일부 모델은 여전히 완전 무료로 유지될 것이다.
실질적 이점 #8: 탈중앙화된 데이터 소스
AI가 직면한 가장 큰 도전 과제 중 하나는 모델 훈련에 적절한 데이터를 찾는 것이다. 앞서 탈중앙화된 AI 훈련의 어려움을 언급했다. 그러나 데이터를 얻기 위해 탈중앙화 네트워크를 사용하는 것은 어떨까?(그 후 데이터는 다른 곳, 심지어 전통적인 Web2 환경에서 훈련에 사용 가능하다)
Grass와 같은 스타트업이 바로 이 일을 하고 있다. Grass는 '데이터 스크래퍼'들로 구성된 탈중앙화 네트워크로, 사용하지 않는 기계의 처리 능력을 기여하여 AI 모델 훈련을 위한 정보를 제공한다. 규모의 관점에서 보면, 대규모 인센티브 노드 네트워크의 강력한 힘으로 인해 이러한 데이터 소스가 어느 기업의 내부 데이터 작업보다 우월할 수 있다. 더 많은 데이터를 확보하는 것뿐만 아니라, 더 자주 데이터를 수집하여 데이터를 더욱 관련성 있고 최신 상태로 유지할 수 있다. 실제로 탈중앙화된 데이터 스크래핑 군단을 막는 것은 불가능하다. 왜냐하면 본질적으로 탈중앙화되어 있으며 단일 IP 주소에 존재하지 않기 때문이다. 또한 스크랩된 데이터를 정리하고 표준화하는 네트워크도 있어, 수집 후 바로 유용하게 활용할 수 있다.
데이터를 확보한 후에는 체인 상에 저장할 위치와, 해당 데이터로 생성된 LLM이 필요하다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News











