
Hack VCパートナー:AI+Cryptoの8つの真の利点
TechFlow厳選深潮セレクト

Hack VCパートナー:AI+Cryptoの8つの真の利点
暗号資産とAIの融合に関する構想を分析し、そこに潜む真の課題や機会について考察する。どこまでが空虚な約束で、どこからが現実的に実現可能なのだろうか?
執筆:Ed Roman、Hack VC マネージングパートナー
翻訳:1912212.eth、Foresight News
AI+Cryptoは、ここ最近の暗号資産市場で注目を集める最先端分野の一つであり、例えば分散型AIトレーニング、GPU DePIN、検閲耐性を持つAIモデルなどが挙げられる。
これらの目覚ましい進展の裏側で、私たちは問わざるを得ない。これは本当に技術的なブレークスルーなのか、それとも単なる流行りに乗ったものにすぎないのか。本稿では、暗号×AIに関する構想と議論を分析し、その真の課題と機会を明らかにするとともに、どの主張が空虚で、どの取り組みが現実的かを解き明かす。
構想#1:分散型AIトレーニング
オンチェーンでのAIトレーニングの問題点は、ニューラルネットワークの学習時に逆伝播が必要となるため、GPU間の高速通信と調整が不可欠である点にある。Nvidiaはこれに対応するため、NVLinkおよびInfiniBandという2つの革新的技術を開発している。これらの技術によりGPU間の通信速度が極めて高くなり、データセンター内に設置されたGPUクラスター(50ギガビット以上の速度)でのみ有効に機能する。
しかし、これを分散ネットワークに拡張すると、ネットワーク遅延や帯域幅の制限により、速度が桁違いに低下してしまう。データセンター内のNvidia高速接続で得られるスループットと比較すれば、AIトレーニング用途としては事実上不可能なレベルだ。
ただし、以下のような将来への可能性も存在する:
-
InfiniBand上で大規模分散トレーニングを行う試みが進んでいる。NVIDIA自体がNVIDIA Collective Communications Libraryを通じて、非ローカルかつ分散型のInfiniBand上でのトレーニングを支援している。しかしこれはまだ初期段階であり、採用状況は不透明である。距離による物理法則のボトルネックは依然として存在するため、ローカル環境でのトレーニングの方がはるかに高速である。
-
分散トレーニングにおける通信同期時間の短縮に関する新しい研究がいくつか発表されており、将来的に分散トレーニングの実用性が高まる可能性がある。
-
モデルトレーニングのためのスマートなシャーディングとスケジューリングがパフォーマンス向上に寄与する。同様に、将来的な分散インフラに特化して設計された新しいモデルアーキテクチャも登場するだろう(Gensynはこうした分野の研究を進めている)。
トレーニングにおけるデータ処理も大きな課題である。あらゆるAIトレーニングプロセスは膨大なデータの処理を伴う。通常、モデルは拡張性と高性能を備えた中央集権的な安全なデータストレージシステム上でトレーニングされる。TB単位のデータを転送・処理する必要があり、しかもこれは一回限りではなく反復的に行われる。データにはノイズが多く、誤りも含まれるため、トレーニング前にクリーニングを行い、利用可能な形式に変換しなければならない。このフェーズでは標準化、フィルタリング、欠損値の処理など繰り返し作業が発生する。これらすべては分散型環境では極めて困難な課題となる。
また、データ処理は反復的であるという点でもWeb3との相性が悪い。OpenAIは数千回の反復を経て現在の成果を得た。AIチームにおいて、データサイエンティストの基本的な作業フローとは、目的の定義、データの準備、分析・整理による重要な知見の抽出、モデリングに適した形への加工、そして問題解決のための機械学習モデルの開発とテストデータセットによる性能評価である。このプロセスは反復的であり、モデルのパフォーマンスが期待に達しない場合、データ収集またはモデルトレーニング段階に戻って改善を図る。このようなプロセスを分散型環境で行うことを想像してみよう。最先端の既存フレームワークやツールをWeb3に適合させるのは容易ではない。
オンチェーンでAIモデルをトレーニングすることのもう一つの問題は、推論に比べて市場の関心が薄い点にある。現在、大規模言語モデル(LLM)のトレーニングには大量のGPU計算リソースが必要とされる。しかし長期的には、推論がGPUの主要な利用シナリオとなるだろう。世界中での需要を満たすために必要なLLMの数と、それらのモデルを利用する顧客数を比較したとき、どちらが多いだろうか?
構想#2:過剰冗長なAI推論計算によるコンセンサスの達成
暗号とAIに関する別の課題は、AI推論の正確性を検証できないことにある。信頼できない単一の中央集権的エージェントが推論操作を行う場合、ノードが不正な行動を取るリスクが存在する。これはWeb2のAIには存在しない問題であり、なぜならそこには分散型コンセンサスシステムがないからだ。
この課題に対する解決策は、冗長計算である。複数のノードに同じAI推論操作を繰り返させることで、信頼不要な環境下でも単一障害点を回避できる。
しかし、この方法にも問題がある。最新鋭のAIチップは極端に不足しており、NVIDIAのハイエンドチップの納期は数年にも及ぶため価格が高騰している。もしAI推論を複数ノードで何度も再実行させるならば、コストは倍増し、多くのプロジェクトにとって現実的ではなくなる。
構想#3:近未来におけるWeb3特有のAIユースケース
Web3には、Web3ユーザー専用の独自のAIユースケースが存在すべきだとする意見もある。具体的には、DeFiプールのリスク評価を行うWeb3プロトコル、ウォレット履歴に基づいて新規プロトコルを提案するWeb3ウォレット、あるいはAIでNPC(非プレイヤーキャラクター)を制御するWeb3ゲームなどが考えられる。
現時点では、これは短期的にはまだ初期段階の市場であり、ユースケースの探索が続いている。主な課題は以下の通り:
-
需要が立ち上がっていないため、Web3ネイティブユースケースに必要なAIトランザクション数は少ない。
-
顧客数が非常に少なく、Web2と比べると桁違いに少ないため、市場の分散度も低い。
-
顧客自身が不安定であり、資金が限られたスタートアップであることが多く、時間の経過とともに消滅する企業も出てくる。Web3向けAIサービスを提供する事業者は、失われた顧客層を補うために新たな顧客基盤を獲得し直さなければならないため、ビジネスのスケーリングが極めて困難になる。
長期的には、特にAIエージェントの普及が進むにつれて、Web3ネイティブのAIユースケースに強く期待している。将来、個々のWeb3ユーザーが多数のAIエージェントを持ち、さまざまなタスクを支援してもらう時代が到来すると想像している。
構想#4:コンシューマーGPUによるDePIN
データセンターではなく、コンシューマー向けGPUに依存する分散型AIコンピューティングネットワークが多数存在する。コンシューマーGPUは、低負荷のAI推論タスクや、遅延・スループット・信頼性に柔軟性が求められる消費者向けユースケースには適している。しかし、重要な市場の大半を占める真剣な企業用途では、家庭用マシンよりも高い信頼性のネットワークが要求され、複雑な推論タスクではより高性能なGPUが必要になる。そのため、こうした高価値な顧客ニーズに対してはデータセンターがより適している。
なお、我々はコンシューマーGPUがデモや、信頼性が低くても許容できる個人・スタートアップには有用だと考える。しかし、こうした顧客の価値は比較的低いため、長期的にはWeb2企業向けにカスタマイズされたDePINの方が価値が高いと考える。そのため、GPU DePINプロジェクトは初期のコンシューマー級ハードウェア中心から、A100/H100やクラスタレベルの可用性を持つ構成へと進化している。
現実――暗号×AIの実用的ユースケース
次に、実際に有意義なメリットをもたらすユースケースについて考察しよう。これらこそが真の勝利であり、暗号×AIが明確な価値を加える領域である。
真のメリット#1:Web2顧客へのサービス提供
McKinseyの推計によると、分析対象となった63のユースケースにおいて、ジェネレーティブAIは年間2.6兆〜4.4兆ドルの追加収益を生み出せるという。これは英国の2021年のGDP(3.1兆ドル)と比較しても大きな数字である。これにより、AIの影響力は15〜40%拡大する。さらに、現時点でAI活用が進んでいない他の業務ソフトウェアにも生成AIを組み込むことで、その影響はさらに約2倍になると予測されている。
この推計を前提に考えれば、グローバルなAI市場(生成AIに限らず)の総規模は数十兆ドルに達する可能性がある。一方、現在の暗号資産全体(ビットコインとすべてのアルトコインを含む)の時価総額は約2.7兆ドル程度である。つまり現実を見れば、短期間でAIを必要とする顧客のほとんどはWeb2顧客であり、Web3顧客はその2.7兆ドルのごく一部に過ぎない(BTC自体はAIを必要としない)。
Web3 AIのユースケースはまだ始まったばかりであり、市場規模も不明確である。しかし確かなのは、 foresee可能期間において、Web2市場のごく一部に留まることだ。我々はWeb3 AIの将来に光明を見ているが、それは現時点では最も強力な応用がWeb2顧客へのサービス提供であるということだ。
Web3 AIの恩恵を受けられるWeb2顧客の例としては、以下のようなものが考えられる:
-
Cedar.aiやObserve.aiのように、AI中心の垂直統合型ソフトウェア企業をゼロから構築する企業
-
Netflixのように、自社目的のためにモデルをファインチューニングする大企業
-
Anthropicのような急成長中のAIプロバイダー
-
Canvaのように、既存製品にAIを統合するソフトウェア企業
これらの顧客は規模が大きく、安定性も高い。倒産のリスクが低く、AIサービスの巨大な潜在顧客層を形成している。Web3 AIサービスがWeb2顧客にサービスを提供することで、こうした安定した顧客基盤の恩恵を受けられる。
しかし、なぜWeb2顧客がWeb3スタックを利用したいと思うのか? その理由を以降の項で説明する。
真のメリット#2:GPU DePINによるGPU利用コストの削減
GPU DePINは、十分に活用されていないGPU計算能力(特にデータセンター由来の信頼性の高いもの)を統合し、AI推論に利用可能にする。これを単純に例えるなら、「GPU版Airbnb」とも言える。
GPU DePINに期待する理由は、前述の通りNVIDIAチップの供給不足が続く中で、AI推論に使える未使用のGPUサイクルが存在している点にある。ハードウェア所有者はすでに固定費を支払っており、装置を十分に活用していないため、現状と比較すればはるかに低コストで部分的なGPUリソースを提供できる。これは実質的にハードウェア所有者にとって「お金を拾う」ようなものだ。
具体例としては以下がある:
-
AWSのマシン。現時点でAWSからH100をレンタルするには、1年契約を結ぶ必要がある(供給が限られているため)。しかし、365日24時間GPUを使うわけではないため、無駄が生じる。
-
Filecoinマイニングハードウェア。Filecoinには大量の補助供給があるが、実需が伴わない。Filecoinは本来の製品市場適合(PMF)を見つけられず、マイナーは廃業の危機にある。これらのGPU搭載マシンは、低負荷のAI推論タスクに再利用可能である。
-
ETHマイニングハードウェア。イーサリアムがPoWからPoSに移行した際、大量のハードウェアが急速に解放され、AI推論に再利用された。
ただし、すべてのGPUハードウェアがAI推論に適しているわけではない。古いGPUは、大規模言語モデル(LLMs)に必要なGPUメモリ容量を持っていないことが主な理由だが、これを克服する興味深い革新も生まれている。例えばExabitsの技術は、アクティブなニューロンをGPUメモリに、非アクティブなものをCPUメモリにロードすることで、限られたGPUメモリでもAIワークロードを処理できるようにする。これにより、低スペックGPUでもAI推論に役立つようになる。
Web3 AI DePINは、時間とともに製品を進化させ、シングルサインオン、SOC 2コンプライアンス、SLA(サービスレベルアグリーメント)などの企業向けサービスを提供していく必要がある。これは現在のクラウドプロバイダーがWeb2顧客に提供しているものと同様の方向性である。
真のメリット#3:OpenAIの自己検閲を回避する検閲耐性モデル
AIの検閲に関する議論は多い。例えばトルコは一時的にOpenAIを禁止したが(後にOpenAIがコンプライアンスを強化し、方針を変更)、国レベルの検閲は競争力を維持するためにAI導入が不可欠となるため、長期的にはあまり現実的ではないと考える。
OpenAI自身も自己検閲を行っている。例えば、NSFWコンテンツの処理を拒否したり、次回の米大統領選の予測を行ったりしない。政治的理由から、OpenAIはこうした市場に踏み込めないが、我々はこうしたAIユースケースこそが面白いだけでなく、市場規模も大きいと考える。
オープンソースは優れた解決策となる。GitHubリポジトリは株主や取締役会の影響を受けない。Venice.aiはその一例で、プライバシー保護と検閲耐性の運営を約束している。Web3 AIは、こうしたOSSモデルに対して低コストのGPUクラスターを提供し、推論を実行することで、その価値をさらに高めることができる。このため、OSS+Web3は検閲耐性AIを実現する理想的な組み合わせだと信じている。
真のメリット#4:OpenAIに個人情報を送信しないこと
大企業は内部データのプライバシーを懸念している。こうした顧客にとって、自社データをOpenAIのような第三者に預けることは難しい。
表面的には、Web3において企業の内部データが分散ネットワーク上に現れることは、さらに不安に思えるかもしれない。しかし、AI向けのプライバシー強化技術には革新が進んでいる:
信頼できる実行環境(TEE)――Super Protocolなど
完全準同型暗号(FHE)――Fhenix.io(Hack VC運営ファンドの投資先)やInco Network(いずれもZama.ai提供)、BagelのPPMLなど
これらの技術は進化を続け、今後登場するゼロ知識(ZK)やFHE専用ASICにより、パフォーマンスはさらに向上する。長期的な目標は、モデルのファインチューニング中に企業データを保護することであり、こうしたプロトコルの出現により、Web3はプライバシー保護型AI計算の魅力的なプラットフォームとなる可能性がある。
真のメリット#5:オープンソースモデルの最新革新の活用
過去数十年間、オープンソースソフトウェア(OSS)は徐々にプロプライエタリソフトウェアの市場を侵食してきた。我々はLLMを、OSSによって脅かされる可能性のあるある種のプロプライエタリソフトウェアと見なしている。注目すべき挑戦者はLlama、RWKV、Mistral.aiなどであり、今後もこのリストは増えていくだろう(より包括的なリストはOpenrouter.aiで確認可能)。Web3 AI(OSSモデルを基盤とする)を活用することで、こうした新技術を用いたイノベーションが可能になる。
我々がこれに期待する理由は、過去に「開発者向けソフトウェア」の革新の多くが最終的にOSSに取って代わられてきた実績があるためだ。かつてマイクロソフトはプロプライエタリ企業だったが、現在はGitHubに最も多く貢献している企業となっている。Databricks、PostgreSQL、MongoDBなどがどのようにプロプライエタリデータベースを破壊したかを見れば、OSSが業界全体を巻き込む力を持っていることがわかる。この先例は非常に説得力がある。
ただし、ここにも課題はある。OSS LLMの難点の一つは、OpenAIがRedditや『ニューヨーク・タイムズ』といった組織と有償データライセンス契約を結び始めた点にある。この傾向が続けば、データ取得に財政的障壁が生じ、OSS LLMの競争力が損なわれる可能性がある。Nvidiaは秘密計算への投資をさらに強化し、安全なデータ共有を支援するかもしれない。すべての展開は時間とともに明らかになっていく。
真のメリット#6:高ペナルティによるサンプリングまたはZK証明によるコンセンサス
Web3 AI推論の課題の一つは、結果の検証にある。検証者が報酬を得るために結果を偽装する可能性があるため、推論の正当性確認は重要である。なお、現時点ではAI推論が初期段階であるため、実際に不正行為が起きてはいないが、抑止措置を講じなければ将来的には避けられない。
標準的なWeb3のアプローチは、複数の検証者が同じ操作を繰り返し、結果を比較することだ。しかし前述の通り、現在のハイエンドNvidiaチップの不足により、AI推論のコストは非常に高いため、冗長計算はWeb3の価値主張を大きく損なう。
より有望な解決策は、オフチェーンのAI推論計算に対してZK証明を実行することである。この場合、簡潔なZK証明を検証することで、モデルが正しく訓練されたか、推論が正しく実行されたか(いわゆるzkML)を確認できる。Modulus LabsやZKonduitなどがその例である。ZK操作は計算負荷が高いため、現時点でのパフォーマンスは初期段階にある。しかし、近い将来にZK専用ASICが登場すれば、状況は改善されると予想される。
さらに有望なのは、「楽観的(Optimistic)」なサンプリング方式のAI推論モデルである。このモデルでは、検証者が生成した結果の一部だけを検証するが、不正が発覚した場合の経済的ペナルティを非常に高く設定することで、検証者の不正行為を強力に抑止する。これにより、冗長計算のコストを大幅に節約できる。
他にも有望なアイデアとして、Bagel Networkが提案するウォーターマーキングやフィンガープリント技術がある。これはAmazon Alexaが何百万台ものデバイスでオンデバイスAIモデルの品質保証を行う仕組みに似ている。
真のメリット#7:OSSによるコスト削減(OpenAIの利益分の削減)
Web3がAIにもたらす次のチャンスは、コストの民主化である。これまでDePINによるGPUコストの削減を述べてきたが、Web3は中央集権的なWeb2 AIサービスの利益率(例:OpenAI、本稿執筆時点で年間10億ドル超の売上)を削減する機会も提供する。このコスト削減の背景には、プロプライエタリモデルではなくOSSモデルを使用することで、モデル開発者が利益を追求しない分、さらなるコスト削減が可能になる点がある。
多くのOSSモデルは完全に無料で提供され続けるため、顧客にとって最も経済的である。ただし、一部のOSSモデルは収益化を模索している。Hugging Faceのすべてのモデルのうち、予算を持ってモデルを訓練している企業はわずか4%に過ぎない。残り96%はコミュニティによって訓練されている。このグループ(Hugging Faceの96%)は、計算やデータにかかる基本的な実コストのみを負担している。したがって、こうしたモデルはどこかで収益化の必要に迫られる。
OSSモデルの収益化に関する提案もいくつかある。最も興味深いものの一つは「初期モデル発行(Initial Model Offering)」の概念であり、モデル自体をトークン化し、開発チームが一部を保有し、将来の収益の一部をトークン保有者に還元するというものだ。ただし、法的・規制上の障壁も確かに存在する。
他のOSSモデルは、利用による収益化を試みるだろう。これが実現すれば、OSSモデルは徐々にWeb2型の収益モデルに近づいていく可能性がある。しかし実際には市場は二分化し、一部のモデルは依然として完全に無料で提供され続けるだろう。
真のメリット#8:分散型データソース
AIが直面する最大の課題の一つは、モデルトレーニングに適したデータを見つけることである。前述したように、分散型AIトレーニングには課題がある。しかし、分散ネットワークを使ってデータを収集し(その後、トレーニングに使用、場合によっては従来のWeb2環境でも使用)、はどうだろうか?
まさにGrassのようなスタートアップがこれに取り組んでいる。Grassは「データスクレイパー」からなる分散ネットワークであり、参加者がマシンの空き処理能力を提供することで、AIモデルのトレーニング用データを収集する。規模の拡大により、多数のインセンティブ付きノードから成るこのデータソースは、単一企業の内部データ収集を上回る可能性がある。データ量だけでなく、頻繁な更新によりデータの関連性と最新性も高まる。また、分散型であるがゆえに、特定のIPアドレスに依存せず、大規模なデータスクレイピング活動を阻止することは本質的に困難である。さらに、収集されたデータをクリーニング・標準化するネットワークも備えているため、すぐに利用可能な状態にできる。
データを取得した後は、それをオンチェーンに保存する場所と、そのデータから生成されたLLMの利用手段も必要になる。
注意すべきは、今後のWeb3 AIにおけるデータの役割の変化である。現在のLLMは、大量のデータで事前学習され、時間とともにさらにデータで洗練される。しかし、インターネット上のデータはリアルタイムで変化するため、モデルは常にやや古くなってしまう。その結果、LLMの推論結果はわずかに不正確になりがちである。
今後の方向性として考えられるのは、「リアルタイム」データという新しいパラダイムである。この概念では、LLMが推論を要求された際に、インターネットからリアルタイムで再収集されたデータをプロンプトに注入することで、最新の情報を使用できるようにする。Grassはまさにこの分野の研究を進めている。
本稿の執筆にあたり、以下の方々からのフィードバックと協力に感謝いたします:Albert Castellana、Jasper Zhang、Vassilis Tziokas、Bidhan Roy、Rezo、Vincent Weisser、Shashank Yadav、Ali Husain、Nukri Basharuli、Emad Mostaque、David Minarsch、Tommy Shaughnessy、Michael Heinrich、Keccak Wong、Marc Weinstein、Phillip Bonello、Jeff Amico、Ejaaz Ahamadeen、Evan Feng、JW Wang。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News











