
진짜 수요일까, 아니면 트렌드를 타는 것일까? 암호화폐 벤처 캐피탈(VC)들은 AI+Web3를 어떻게 바라보고 있는가?
저자: 만샹 블록체인
AI와 Web3 데이터의 융합을 어떻게 바라봐야 할까? 주목해야 할 방향은 무엇이 있을까?
Hashkey Capital-Harper: 저는 AI와 Web3 데이터의 융합에는 몇 가지 방식이 있다고 생각합니다. 첫째는 LLM 모델을 활용해 언어를 SQL로 변환 생성하는 것입니다. 예를 들어 Dune가 있으며, 일부 프로젝트는 전문적으로 검색 엔진을 만들고 있습니다. SQL 기능을 강화해야 데이터베이스 내 데이터를 정확히 호출할 수 있고, 자연어만으로도 자동으로 SQL을 생성해 개발자가 복사해서 사용할 수 있게 하는 것이죠. 둘째는 채팅 방식으로, ChatGPT 기반의 채팅 에이전트를 개조한 것입니다. 이 방식은 SQL이나 검색 최적화보다는 채팅 창 제공에 초점을 맞추며, 더 자유롭습니다. 예를 들어 "어떤 KOL이 매수 신호를 보냈는지 알려줘" 또는 "이 보안 사고가 토큰에 미친 영향은?" 같은 질문에 대해 전 인터넷에서 결과를 수집해 제시하죠. 이 경우 데이터베이스 호출을 위한 SQL 최적화는 중요하지 않습니다. 세 번째는 AI를 통해 적절한 모델을 만들어 오프체인과 온체인 데이터를 통합·정리하여 더 나은 인사이트를 추출하는 것입니다.
비교하자면, 첫 번째 방식은 프로젝트 팀이 더욱 견고한 데이터베이스 구축 능력을 요구하며, Web3 데이터 처리는 매우 까다롭기 때문에 정확성과 속도를 달성하기 어렵습니다. 두 번째 방식은 비교적 단순한 융합 방법이며 진입 장벽도 낮습니다.
SevenX Ventures-Yuxing: 사실 데이터는 AI의 먹이입니다. Web3의 데이터는 공개적이며 검증 가능하지만, AI는 블랙박스 특성상 검증이 어렵다는 문제가 있습니다. 이 두 가지를 결합하면 흥미로운 시너지 효과가 생길 수 있죠. 현재 저는 AI와 Web3의 융합을 단순히 'AI + Web3 데이터'로 나누기보다는, 'AI가 Web3를 어떻게 더 좋게 만들 수 있는가'와 'Web3가 AI를 어떻게 더 좋게 만들 수 있는가'라는 두 관점에서 나누는 것이 더 타당하다고 봅니다.
우선 AI 측면에서 Web3 데이터는 Web3의 공개성과 검증 가능성을 효과적으로 활용할 수 있습니다. 모든 AI는 Web3 데이터를 사용해 가치를 추출하고 창출할 수 있으며, 투자 조언이나 경고 분석 등 다양한 용도로 활용할 수 있습니다. AI는 Web3 데이터의 처리 및 분석 효율성을 크게 높일 수 있습니다. 반면 Web3는 AI의 신뢰성을 강화할 수 있습니다. 왜냐하면 Web3 자체가 새로운 형태의 신뢰 메커니즘이기 때문입니다. Web3의 데이터 공개성과 검증 가능성 덕분에 AI의 투명성을 높일 수 있으며, 뉴스 보도나 다큐멘터리 같은 중요한 분야에서 핵심 정보를 Web3 방식으로 저장함으로써 AI의 문제점을 회피할 수도 있습니다.
이러한 문제들 중 대표적인 것이 바로 AI의 위조 문제와 블랙박스 문제입니다. 일부 AI 알고리즘은 이해하기 쉬울 수 있지만, 신경망이나 GPT처럼 복잡한 알고리즘은 설명하기 어렵습니다. 사람들은 AI의 답변이 어떻게 도출되었는지 의문을 품으며, 데이터와 알고리즘이 투명하지 않아 마치 마술처럼 느껴집니다. 예를 들어 과거 얼굴 인식 알고리즘이 흑인을 고릴라로 잘못 식별한 것은 훈련 데이터셋 내 흑인 이미지가 극도로 부족했기 때문입니다.
AI 모델이 사용하는 데이터가 모두 검증 가능하다면, 데이터 샘플의 편향 여부를 쉽게 판단할 수 있습니다. Web3 데이터를 사용하면 투명성 덕분에 AI 모델의 학습 원천과 결과물 전체가 더욱 명확해지며, 이를 통해 AI를 더 공정하게 바라보고 의사결정 근거를 이해함으로써 편견과 오류를 줄일 수 있습니다.
블랙박스 문제는 대략 두 부분으로 나눌 수 있습니다. 첫째는 모델 알고리즘 자체의 블랙박스로, 모델 훈련 방식, 콘텐츠 생성 방식 등 훈련 과정과 알고리즘 메커니즘 차원에서 불투명하거나 설명이 불가능한 점입니다. 둘째는 데이터의 블랙박스로, 데이터를 공개하지 않고 훈련 데이터셋에 문제가 있어 최종 결과에 편향을 초래하는 것입니다.
이러한 편향이 내용 정확성 문제라면 지속적으로 개선할 수 있지만, 이데올로기적 문제, 특히 정치적 편향이나 인종 차별 문제라면 교정이 어려워질 수 있습니다. 이런 경우에는 출력 내용을 통제하는 수밖에 없습니다. 예를 들어 현재 많은 국가 시스템이나 국영기업 시스템의 AI 모델은 '무엇을 말하면 안 되는가'를 통제하는 것이 가장 중요한 목표인데, 이는 앞서 언급한 이데올로기적 편향과 유사한 문제입니다.
Qiming Venture Partners-탕이: AI와 Web3 데이터의 융합에 대해 개인적으로는 AI가 다소 과장되고 있으며, 실질적인 효용보다는 홍보 요소가 더 크다고 봅니다. 제 관점에서는 암호화폐(Crypto) 데이터 제품이 아직 초기 단계에 있으며, 데이터 기반 작업이 충분히 탄탄하지 못합니다. 이런 상황에서 너무 일찍 AI나 과도한 데이터 분석을 도입하는 것은 성급할 수 있습니다.
또한 사용자 관점에서 보면 대부분의 암호화폐 프로젝트와 AI의 융합 시나리오는 성립되지 않거나, 실제로 AI를 필요로 하지 않는 경우가 많습니다. 왜냐하면 최근 각광받는 AI 모델, 특히 생성형 모델은 대규모 인터넷 데이터를 기반으로 하고 있으며, 언어 처리 및 이미지 생성 등의 기능에 특화되어 있기 때문입니다. 일부에서는 생성형 AI를 활용해 사용자 경험을 개선하고 더 나은 상호작용감을 제공하지만, 대부분의 시나리오에서는 그 가치가 제한적입니다. 좀 더 광범위한 AI(데이터 분석 능력 또는 간단한 AI 모델 포함)라면 NFT 가격 산정이나 전문 거래 팀의 거래 실행 지원 등 특정 시나리오에서 의미가 있을 수 있으나, 전반적으로 현재 AI 열풍이 암호화폐 산업에 단기적으로 특별한 이익을 가져올 가능성은 보이지 않습니다.
물론 저는 일부 초기 프로젝트들이 AI를 활용해 데이터 처리 및 분석 능력을 향상시키려는 시도를 하고 있다는 점도 알고 있습니다. 예를 들어, 어떤 초기 프로젝트는 AI를 이용해 스마트 계약의 논리를 해석하거나 분류 및 식별 작업을 수행하고 있습니다. 이러한 작업은 스마트 계약 및 암호화폐 분야에서 매우 높은 정확성이 요구되며, 거래 등 핵심 동작과 관련되기 때문입니다. 따라서 저는 AI 기능을 데이터 전처리에 활용하는 것은 의미가 있을 수 있지만, 정확성을 보장하기 위해 결국 인간의 개입이 필요할 것이라고 봅니다. AI 기능을 직접 거래 트리거로 사용하고자 한다면 전문 트레이더를 제외하고는 제품 수준에서 아직 큰 발전이 필요하다고 생각합니다.
Matrix Partners-즈쉬: 우리는 Web3 데이터 프로젝트들을 많이 살펴봤습니다. 예를 들어 저희는 Footprint에 투자했는데, 저 역시 초기부터 충실한 사용자였으며, Dune도 비슷한 사례입니다. Footprint와 Dune는 주로 VC, 개발자, 소규모 기업을 대상으로 서비스를 제공하며, 일반 대중과는 실제 연결고리가 거의 없습니다.
또한 암호화폐 거래 또는 수익과 직접 연관된 데이터 분석 회사들도 살펴봤습니다. Nansen, DefiLlama, Token Terminal, DappRadar 등이 여기에 해당하며, 물론 Dune와 Footprint도 포함됩니다. 이 회사들은 VC와 개발자에게 매우 유용하지만 수익 창출 능력은 제한적입니다. 이유는 현재 VC와 개발자의 데이터 수요량이 충분히 크지 않을 뿐 아니라 지불 의지도 약하기 때문입니다. 비록 무료가 아니더라도 유사한 무료 서비스를 제공하는 다른 회사들이 있기 때문입니다.
또한 데이터 웨어하우스와 유사한 회사들도 살펴봤습니다. 우리는 Tencent와 함께 Chainbase에도 공동 투자했습니다. 이들은 일종의 데이터 플랫폼으로, 보안, 거래, NFT, DeFi, 게임, 소셜 등 다양한 유형의 데이터와 종합 데이터를 제공합니다. 개발자는 이러한 플랫폼에서 데이터를 조합해 자신이 필요한 API를 생성할 수 있습니다.
시장 침체기에는 Chainbase, Blocksec, Footprint 등의 고객 대부분이 중소형 스타트업이라는 점을 확인했습니다. 예를 들어 Chainbase의 일부 대형 고객은 수입이 감소하지 않았지만, 중소형 고객의 수입은 2~3개월 만에 제로로 떨어졌습니다. 이는 자금 부족으로 인해 프로젝트가 지속 불가능함을 보여줍니다.
따라서 데이터 제공업체 입장에서는 침체기에 새로운 개발자가 유입되지 않으면 수익을 낼 수 없습니다. 이는 현재 Web3 분야에서 데이터 제공업체가 데이터의 가치를 인식하는 개발자와 소기업에 의존하며, 이들이 내부적으로 데이터를 통합한 후 수익화해 수입과 산출을 균형 있게 맞추고 있음을 반영합니다.
핵심적으로는 현재 ToC든 ToB든 Web3 데이터 회사들의 수익 모델이 명확하지 않아, 데이터 제공업체가 강력하고 안정적인 현금흐름을 확보하지 못하고 있다는 점입니다. 특히 중소형 창업자들에게는 이것이 현재 Web3 데이터 산업의 가장 큰 단점이라고 생각합니다.
그리고 다시 AI와 Web 데이터 융합으로 돌아가 보겠습니다. 우리는 최근 AI 관련 데이터 회사들도 일부 살펴보고 투자했습니다. AI 데이터 회사들도 실제로 동일한 문제, 즉 데이터 판매 문제에 직면해 있다고 봅니다. 고객의 비용과 산출 효과 사이의 균형을 고려해야 하기 때문입니다. 현재로서는 AI 데이터 회사의 수익 전망에 대해 비교적 낙관적이지만, 이는 주로 해외 시장을 전제로 합니다.
국내 시장만을 타깃으로 한다면, 결국 Web2 SaaS 기업에 투자하는 것과 같은 결과를 낳을 수 있다는 우려가 있습니다. 수익은 발생할 수 있지만 사업 규모는 크지 않을 것이며, 고객의 지불 의지도 강하지 않을 것입니다. 또한 맞춤형 서비스를 제공해야 하므로 마진율도 높지 않을 것입니다. 따라서 국내에서 이 사업을 운영하는 데는 비관적이며, 해외에서 운영하는 데는 낙관적입니다.
AI가 Web3 데이터 인프라 및 Web3 데이터 기업에 어떤 가치를 제공할 수 있다고 보시나요? 현재 AI를 활용해 Web3 데이터를 돕는 프로젝트들의 성과는 어떠한가요? 비즈니스 모델 측면에서도 혁신이 가능한가요?
SevenX Ventures: AI가 Web3 데이터에 가장 크게 기여할 수 있는 부분은 효율성이라고 생각합니다.
예를 들어 Dune는 AI 대규모 모델 도구를 발표해 코드 이상 탐지 및 정보 인덱싱을 수행하며, 사용자는 자연어로 데이터를 조회하면 해당 코드가 자동 생성되고 코드 최적화까지 가능해져 효율성이 향상됩니다.
또한 AI를 활용한 보안 경고 프로젝트도 있습니다. AI를 적절히 훈련시켜 보안 문제를 신속하게 식별하는 AI 로봇을 만드는 것입니다. 예를 들어 AI 알고리즘 중 '이상 탐지(anomaly detection)'라는 기법은 순수 수학 통계 방법으로 데이터 분포를 직접 살펴 이상값을 찾는 것보다 더 나은 효과를 냅니다. 따라서 이러한 AI는 보안 모니터링에 더욱 효과적으로 활용될 수 있습니다.
또한 저는 일부 프로젝트가 대규모 언어 모델(Large Language Model)을 사용해 Web3의 뉴스 데이터(온체인 데이터뿐만 아니라) 전체를 검색하고 정보를 집계하며 여론을 분석해 AI 에이전트를 구성하는 것을 보았습니다. 예를 들어 사용자는 대화창에서 특정 토큰의 최근 30일 또는 90일간 네트워크 여론을 조회할 수 있으며, 긍정적 관점과 부정적 관점 중 어느 쪽이 우세한지를 점수로 나타낼 수 있습니다. 또한 그래프를 통해 토큰이 대중의 관심이 정점에 달했는지, 정점 이후 하락 중인지, 혹은 상승 중인지를 판단할 수 있으며, 이는 투자자에게 도움이 됩니다. 이는 꽤 흥미로운 응용 방식이라고 생각합니다.
하지만 일부 프로젝트는 자신의 데이터를 AI의 데이터 소스라고 주장하며 AI 개념을 무리하게 붙이는 경우도 있는데, 다소 억지스럽다고 생각합니다. 왜냐하면 모든 온체인 데이터는 공개되어 있으므로 본질적으로 AI의 데이터 소스가 될 수 있기 때문에, 이는 일종의 트렌드 타기로 보입니다.
Matrix Partners-즈쉬: 현재 데이터 분야의 큰 문제는 비즈니스 모델이며, 해결책을 찾는 것은 어렵습니다. ToC 측면에서는 Web3의 토큰이나 분산화 개념 등을 활용해 AI 데이터의 비즈니스 모델을 다양화할 수 있을 것입니다. 하지만 AI 기술이 데이터에赋能하는 측면에서는 아직 두드러진 점이 없습니다.
AI는 데이터 처리 및 정제 과정에서 보조 역할을 할 수 있으나, 이는 주로 제품 개발 과정에서 기능이나 사용자 경험을 향상시키는 내부적 도움에 그칩니다. 그러나 상업적 관점에서는 큰 변화가 없습니다.
AI 봇은 분명히 일부 경쟁력을 높이고 사용자를 보조할 수 있지만, 현재로서는 큰 강점은 아닙니다. 핵심 경쟁력은 여전히 데이터 소스의 질에 달려 있습니다. 데이터 소스가 풍부하면 필요한 정보를 얻을 수 있기 때문입니다. 문제는 이러한 데이터를 상업화할 때, 조합한 결과물이 반드시 수익화되어야 하며, 그때에야 데이터에 지불할 의사가 생긴다는 점입니다. 현재 문제는 시장 상황이 좋지 않아 스타트업이 데이터를 어떻게 수익화할지 모르며, 새로운 스타트업 유입도 충분하지 않다는 것입니다.
저는 현재 오히려 Web2 기업 중 Web3 기술을 활용하는 사례들이 더 흥미롭다고 봅니다. 예를 들어 합성 데이터(synthetic data)를 생성하는 회사는 대규모 모델을 사용해 합성 데이터를 생성하며, 이 데이터는 소프트웨어 테스트, 데이터 분석, AI 대규모 모델 훈련 등에 활용됩니다. 이들은 데이터 처리 과정에서 많은 개인정보 보호 문제를 다루며, Oasis 블록체인을 사용해 데이터 프라이버시 문제를 효과적으로 회피합니다. 이후에는 데이터 거래소를 만들 계획이며, 합성 데이터를 NFT 형태로 포장해 거래함으로써 권리 소유와 프라이버시 문제를 해결하려 합니다. 이는 아주 좋은 접근법이며, Web3 기술로 Web2 문제를 해결하는 것으로, 반드시 Web3 기업에 국한되지 않습니다. 다만 현재 합성 데이터 시장은 아직 작아 초기 투자에는 리스크가 따릅니다. 만약 하류 시장이 성장하지 않거나 경쟁자가 많아진다면 상황이 난처해질 수 있습니다.
AI+Web3 데이터 분야에서 좋은 프로젝트에 투자한 사례가 있다면 어떤 방향의 프로젝트였으며, 투자 결정의 핵심 요인은 무엇이었나요? 이러한 프로젝트의 핵심 경쟁력은 무엇이며, AI가 이 경쟁력을 강화할 수 있다고 보시나요?
Hashkey Capital-Harper: 저희는 비교적 초기에 데이터 프로젝트에 투자했으며, 당시에는 AI 강조가 없던 시기였습니다. Space and Time, 0xscope, Mind Network, Zettablock 등이 여기에 해당합니다. 투자 결정의 핵심은 프로젝트의 포지셔닝과 데이터 품질이었습니다. 현재 이 프로젝트들은 모두 AI 계획을 가지고 있으며, 대부분 채팅 에이전트부터 시작하고 있습니다. Space and Time는 ChainML과 협력해 AI 에이전트 생성 인프라를 출시했으며, 여기서 생성된 DeFi 에이전트가 Space and Time 내에서 사용되고 있습니다. 이 또한 AI와의 융합 방식 중 하나입니다.
SevenX Ventures-Yuxing: 프로젝트가 AI와 잘 융합되어 있다면 저는 더 큰 관심을 가질 것입니다. 제가 투자 여부를 결정하는 핵심 요소 중 하나는 프로젝트가 시장 장벽을 가지고 있는가 하는 점입니다. 많은 프로젝트가 AI 융합을 통해 효율성을 높일 수 있다고 주장하며, 예를 들어 빠른 데이터 조회 기능을 제공한다고 합니다. 자연어로 최근 가장 활발히 거래된 상위 10개 NFT를 조회할 수 있는 프로젝트도 있습니다. 이러한 프로젝트는 선점 우위를 가질 수 있지만 시장 장벽은 견고하지 않을 수 있습니다.
진정한 장벽은 AI 자체의 적용과 엔지니어가 AI를 특정 시나리오에 어떻게 적용하는가에 있습니다. 엔지니어가 모델 파인튜닝(fine-tuning)을 숙달하면 일반적으로 좋은 결과를 얻을 수 있습니다. 효율성을 높이는 프로젝트의 경우, 시장 장벽은 주로 데이터 소스에 있습니다. 온체인 데이터뿐만 아니라 프로젝트팀이 이러한 데이터를 어떻게 처리하고 해석하는가에 달려 있습니다. 앞서 언급한 프로젝트처럼 AI 알고리즘을 통해 중요한 데이터를 신속하게 검색할 수 있는 것도 있습니다. 그러나 엔지니어의 모델 파인튜닝 효과는 한계가 있으며, 진정한 지속적 우위는 데이터 소스의 질과 지속적 최적화 능력에 있습니다. 이것이 바로 일부 데이터 분석 회사가 시장에서 두각을 나타내는 이유이며, 단순히 데이터 소스 제공뿐 아니라 데이터 처리 및 분석 능력도 제공하기 때문입니다. 차이점은 주로 팀의 기술 역량과 인재에 있습니다. 이러한 요소들은 AI 융합 응용의 최종 성과에 직접적으로 영향을 미칩니다.
또한 저는 AI를 더 좋게 만들 수 있는 Web3 기술 프로젝트에도 관심을 갖고 있습니다. 왜냐하면 AI 시장 자체가 매우 크기 때문입니다. Web3 기술이 AI 능력을 강화한다면 응용 시나리오는 매우 광범위할 것입니다. 그래서 ZKML 프로젝트가 각광받는 이유이기도 합니다. 하지만 Web3 프로젝트는 가치가 과대평가되거나 과소평가되기 쉽다는 점을 주목합니다. ZKML 같은 프로젝트는 주목받지만, 기대만큼 빠른 수익을 내지 못하며, 퇴출 메커니즘도 명확하지 않습니다. 왜냐하면 토큰 발행이 어렵기 때문입니다. 따라서 이러한 프로젝트는 창의적이고 잠재적 가치가 있더라도 현재 투자할 가치가 있는지, 그리고 궁극적으로 얼마나 높은 수익을 낼 수 있는지는 투자자가 신중히 고려해야 할 사항입니다.
Matrix Partners-즈쉬: 우리는 AI와 Web3를 결합한 회사에 투자했습니다. 데이터 라벨링 회사인 Questlab입니다. 이 회사는 블록체인 기술을 활용해 데이터 라벨링의 크라우드소싱 서비스를 제공합니다. 기존 데이터 라벨링은 직영 또는 하청 방식이 주를 이루며, 지식 분야를 전반적으로 커버하기 어렵습니다.
기존 데이터 라벨링은 일반적으로 세 가지 유형으로 나뉩니다: 직영, 하청, 크라우드소싱. 하지만 실제로 크라우드소싱을 하는 곳은 적습니다. 이 세 가지 모델의 기업이 데이터 라벨링 서비스를 선택할 때 고려하는 요소는 가격, 라벨링 품질, 효율성, 그리고 해당 산업을 커버할 수 있는가입니다. 일반 모델의 언어나 이미지 라벨링은 비교적 간단합니다. 예를 들어 영문자나 이미지 식별은 쉬운 편입니다. 조금 더 어려운 예로 고양이, 개, 달, 유모차 등을 구분하는 것도 그리 어렵지 않습니다. 하지만 음성 로봇 커뮤니티가 필요로 하는 라벨링처럼 더 전문적인 작업은 복잡해집니다. 다양한 방언과 언어, 중국 방언, 영어 방언, 소수 지역 언어 등을 라벨링해야 하며, 전통적인 스튜디오에서는 이러한 작업을 꺼리는 경우가 많습니다.
더 복잡한 예로 법률과 AI를 결합한 회사는 다양한 모델을 훈련시키기 위해 방대한 법률 지식을 라벨링해야 하며, 법률을 이해하면서 동시에 전문 라벨링을 수행할 수 있는 인재를 찾는 것은 매우 어렵습니다. 각국의 법률뿐 아니라 계약법, 임대차법, 민법, 형법 등 다양한 전문 분야도 이해해야 하며, 시장에는 이러한 전문 서비스를 제공할 수 있는 데이터 라벨링 회사가 거의 없습니다. 법률이 전문적인 것처럼 금융, 생명과학, 의료, 교육 분야도 마찬가지입니다. 따라서 이러한 분야의 라벨링 작업은 일반적으로 내부 팀이 수행하며, 크라우드소싱 방식을 사용해 전문 지식 커버리지를 해결합니다.
저희는 블록체인을 활용한 크라우드소싱이 매우 좋은 방향이라고 봅니다. YGG가 GameFi 분야에서 한 일과 유사합니다. 이는 전망이 밝은 방향이라고 생각합니다.
또한 오픈소스 모델 커뮤니티 내에서도 좋은 기회가 있다고 봅니다. 예를 들어 Polychain이 투자한 프로젝트는 Web3 버전의 Hugging Face와 유사하며, 모델 콘텐츠 제작자의 경제 문제를 해결하려 합니다.
기타 AI와 Web3의 융합에 대해서는 ToC 방향에서 토큰 활용 방식을 결합해 커뮤니티의 유대감, 일일 활성, 정서적 몰입을 높일 수 있다면 실현 가능하다고 생각합니다. 또한 투자자 입장에서 수익화도 용이하지만, 시장 규모는 불확실합니다. 이것이 제가 AI와 Web3에 대해 갖는 전반적인 견해입니다. 순수한 ToB 비즈니스라면 굳이 Web3를 사용할 필요 없이 Web2 방식으로 진행하는 것이 더 낫다고 생각합니다.
Qiming Venture Partners-탕이: 현재 저희가 투자한 일부 데이터 프로젝트는 온체인 데이터를 활용해 보안 시나리오에서 작업하고 있습니다. 저는 일부 AI가 기본적인 패턴 인식이나 특징 발견 작업에 참여하고 있으며, 효과도 괜찮은 편이라고 봅니다. 그러나 다량의 활동 데이터를 모델에 입력해 다양한 정보를 식별하는 고급 작업은 여전히 시도 단계이며, 효과는 검증이 필요합니다. 보안 분야 외에도 많은 분야에서 비슷한 상황이 존재합니다.
최근 사례로는 저희가 투자한 NFTGo가 있습니다. 이는 빅데이터 분석을 기반으로 NFT 가격을 책정하며, 일정한 정확도를 가지고 있으며, 이를 가격 오라클 등에 활용할 계획입니다. 이 시스템은 흥미롭게 들리지만 제품 내 적용 및 사용자 수용도 측면에서는 여전히 검증이 필요합니다. 왜냐하면 현재 정확도가 90점 또는 85점이라 할지라도 사용자는 98점 또는 95점 수준의 더 높은 정확도를 요구할 수 있기 때문입니다. 따라서 일부 프로젝트가 데이터 분석 및 패턴 인식 같은 단순한 AI 기능을 제품에 적용하고 있지만, 이것이 핵심 요소가 될 수 있는지는 아직 검증되지 않았습니다.
투자 의향 측면에서 저는 프로젝트가 AI 관련 홍보 요소를 가진다고 해서 투자 성향이 더 강해지지는 않습니다. 왜냐하면 실제 효과와 프로젝트가 목표를 달성하고 이익을 창출할 수 있는지가 더 중요하다고 보기 때문입니다. 프로젝트가 이름이나 마케팅에서 눈에 띄는 점이 있어 관심과 노출을 끌기 위한 마케팅 수단으로 사용하는 것은 이해할 수 있습니다. 그러나 투자 결정에서는 실제 효과가 더 중요하다고 생각합니다.
ZKML 같은 일부 프로젝트는 이 분야가 주목받고 있지만 동시에 큰 문제가 있습니다. 그것은 바로 어떤 시나리오에 사용되는가 하는 점입니다. 현재로서는 불확실성이 매우 크며, 여전히 거창한 스토리텔링 수준에 머물러 있다고 생각합니다.
전체 산업 발전 관점에서 AI + Web3 데이터 이 분야의 미래에는 어떤 잠재적 기회나 방향성이 있을까요? 미래에 AI가 데이터 제품을 완전히 업그레이드하거나 새로운 개념을 도입할 수 있을까요? 사용자의 지불 의향을 강화할 수 있을까요?
Hashkey Capital-Harper: 분명 잠재적 기회는 있습니다. 미래 방향성은 여전히 Web2 AI에 비해 뒤처져 있으며, Web2 쪽의 창의성이 훨씬 더 강합니다. Web3의 AI는 대부분 Web2 AI의 사본 구현에 그칠 가능성이 큽니다.
Matrix Partners-즈쉬: 저는 최근 묘야 카메라(Miaoya Camera)가 사람들이 인식하게 했다고 봅니다. 사람들은 AI 제품에도 지불 의향이 있다는 점을 말입니다. 이는 전통적인 SaaS 제품이나 게임처럼 무료여야만 사용한다는 기대와 다릅니다. 사용자의 AI 제품에 대한 지불 의향은 꽤 강합니다.
미래에 대해 몇 가지 아이디어를 제시하겠습니다. 데이터 라벨링 프로세스에는 '사전 라벨링(pre-labeling)'이라는 핵심 단계가 있습니다. 즉, 모델을 훈련시켜 초급 라벨링을 수행하는 것입니다. 이 단계는 매우 가치가 있으며, 많은 인건비를 절약할 수 있습니다. 원시 데이터를 사전 훈련된 모델에 넣어 사전 라벨링을 수행한 후 반자동화된 데이터 처리를 거쳐 마지막으로 수동으로 정밀 라벨링을 수행합니다. 사전 라벨링은 효율성을 크게 향상시킬 수 있으며, 원래 100명이 필요한 작업이 이제는 50~70명만으로 가능해질 수 있습니다.
또한 사전 라벨링은 AI와 인간의 협업을 포함하며, 피드백을 통해 모델의 사전 라벨링 능력을 지속적으로 향상시켜 데이터 라벨링 팀의 인력 수요를 줄일 수 있습니다. AI와 인간의 협업이 점점 좋아짐에 따라 원래 100명이 필요했던 팀이 30명만으로도 운영 가능해질 수 있습니다. 그러나 이 과정에는 하한선이 존재합니다. AI 협업이 아무리 훌륭해도 여전히 최종 라벨링과 검토를 위한 인력이 필요합니다.
다른 분야에서는 제가 데이터 과학자가 아니기 때문에 직접 데이터를 정제하거나 SQL 쿼리를 사용해 데이터를 사용해본 경험이 없어 AI가 이 분야에서 얼마나 도움을 줄 수 있는지 알 수 없습니다.
Qiming Venture Partners-탕이: 장기적으로 Web3와 AI 사이에 교차점이 있을 것이라고 봅니다. 예를 들어 이데올로기적 관점에서 Web3의 가치 체계를 AI에 접목할 수 있으며, 봇의 계정 체계 또는 가치 전환 체계로 매우 적합합니다. 예를 들어 봇이 자신의 계정을 가지며, 자신의 지능을 통해 수익을 창출하고, 하부 컴퓨팅 능력 유지 비용을 지불하는 상상을 해볼 수 있습니다. 이러한 개념은 다소 공상과학 같지만, 실제 적용까지는 아직 멀었습니다.
두 번째 가능한 방향은 AI 모델의 출력이 특정 카테고리, 특정 모델 또는 특정 데이터를 기반으로 하고 있으며, 신뢰할 수 있는지를 검증하는 것입니다. 이러한 분야는 신뢰할 수 있는 AI 모델에서 일부 활용 가능성이 있습니다. 기술적으로는 매우 흥미롭지만, 충분한 시장 수요가 있는지는 불확실합니다.
또 다른 측면은 AI의 등장으로 인해 데이터 콘텐츠 생성이 범람하고 저렴해졌다는 점입니다. 디지털 작품 등 콘텐츠의 경우 품질과 창작자를 판단하기 어렵습니다. 이 분야에서는 콘텐츠의 권리 소유를 위한 완전히 새로운 체계가 필요할 수 있으며, 창작자와 인공지능 에이전트의 역할을 포함해야 합니다. 그러나 전반적으로 이러한 문제들은 여전히 해결되지 않았으며, 스토리 중심 콘텐츠는 더 긴 시간이 필요할 수 있습니다. 단기적으로는 데이터 기반의 품질에 계속 주목하고, 모델이 더 강력해지기를 기대해야 합니다.
또한 상업화 측면에서 데이터 제품의 상업화는 매우 어렵습니다. 그러나 상업적 관점에서 AI는 단기적으로 데이터 제품 상업화 문제를 해결하는 해답이 될 수 없다고 봅니다. 상업화는 데이터화 능력 이상의 제품화 노력이 필요합니다. 따라서 이러한 프로젝트는 상업화를 위해 다른 제품을 개발해야 할 수 있습니다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News











