
AI+Web3の将来への道(1):産業風景とナラティブの論理
TechFlow厳選深潮セレクト

AI+Web3の将来への道(1):産業風景とナラティブの論理
AI+Web3アプリケーションの競争は、技術革新力ではなく、製品力と技術力の蓄積にある。
執筆:Future3 Campus
過去1年間、ChatGPTなどの生成AI大規模モデルの登場により、AIは単なる自動化ツールから複雑な意思決定や予測システムへと進化し、現代社会における重要な進歩を牽引する原動力となっている。AI関連製品やアプリケーションも爆発的な成長を遂げており、ChatGPT自体も次々とGPTsやSoraといった注目すべき製品をリリースしている。また、AI基盤インフラであるNVIDIAの業績は好調を維持しており、2024会計年度第4四半期においてデータセンター事業が全体売上高の83%以上を占め、前年同期比で409%増加した。このうち40%は大規模モデルの推論用途に使用されており、基盤となる計算能力に対する需要が急速に高まっていることが示されている。
現在、AIは欧米の資本市場において最も注目されるテーマとなっており、同時にWeb3市場も新たな好況期を迎えている。「AI+Web3」はいま最もホットな二つの技術テーマの融合であり、最近ではこのテーマに特化したプロジェクトも多数登場しており、市場の関心と期待の高さを如実に表している。
過剰な宣伝や価格バブルを除外した上で、「AI+Web3」業界の現状はどうなのか?実際に応用できるユースケースはあるのか?長期的には価値あるストーリーと産業を創出できるのか?将来の「AI+Web3」産業はどのようなエコシステムを形成していくのか、有望な方向性はどこにあるのか?
これらの話題を中心に、Future3 Campusは今後一連の関連記事を執筆し、「AI+Web3」産業チェーンの各側面を分析していく。本稿はその第一弾として、「AI+Web3」の全体像とストーリー展開のロジックについて述べる。
AIの作業・生産プロセス
要約すると、「AI+Web3」の融合方向は大きく二つに分けられる。一つはWeb3がどのようにAIの発展を支援できるか、もう一つはWeb3アプリケーションがAI技術を取り入れることである。現時点では、Web3の技術やコンセプトがAIに付加価値を与える方向が大多数のプロジェクトの焦点となっている。そのため、AIがモデル訓練から生産に至るまでのプロセスを通じて、どのようにWeb3と統合できるかを分析することが有効である。
LLM(大規模言語モデル)の出現は、従来の機械学習プロセスとは若干異なる点もあるが、概ね簡略化されたAI生産プロセスは以下のいくつかの段階に分けられる:
1. データ取得
AIモデルの訓練ライフサイクル全体において、データはモデル訓練の基盤となる土台である。通常、高品質なデータセットを基礎として採用し、探索的データ分析(EDA)を行い、再現可能で編集・共有可能なデータセット、表、可視化チャートを作成する必要がある。
2. データ前処理と特徴エンジニアリング/プロンプトエンジニアリング
データを取得した後は、前処理を行う必要がある。これは機械学習では特徴エンジニアリング(データアノテーション)、大規模モデルではプロンプトエンジニアリングに相当する。細かい特徴を明確にするためにデータを分類・集約し、重複データを削除する反復的な作業を行うとともに、LLMが構造化クエリを実行できるようプロンプトを反復的に開発する。また、得られた特徴量やプロンプトを確実に保存・共有する仕組みも必要である。
3. モデル訓練とチューニング
豊富なモデルライブラリを活用してAIモデルを訓練し、繰り返し調整を行うことで、モデルの性能、効率性、正確性を向上させる。LLMの場合、主に人間からのフィードバックによる強化学習(RLHF)を用いてモデルの継続的なチューニングを行う。
4. モデル審査とガバナンス
MLOps/LLMOpsプラットフォームを用いてモデル開発プロセスを最適化し、モデルの発見、追跡、共有、協働を可能にする。これによりモデルの品質と透明性を確保するとともに、倫理的・法的規制への適合性を担保する。
5. モデル推論
訓練済みのAIモデルを展開し、新しい未観測データに対して予測を行う。モデルは学習によって獲得したパラメータを用いて入力データを処理し、分類や回帰予測などの結果を生成する。
6. モデル展開とモニタリング
モデルの性能が目標値に達していることを確認した後、実際の応用シナリオに展開し、継続的なモニタリングとメンテナンスを実施することで、変化する環境下でも最適な性能を維持できるようにする。
上記のプロセスには、多くの点でWeb3との統合可能性がある。現在、AIの発展過程において、モデルの透明性、バイアス、倫理的利用などの課題が広く注目されているが、ここではZK(ゼロ知識証明)などの暗号技術とWeb3技術を組み合わせることで、AIにおける信頼性の問題を改善できる。さらに、AIアプリケーションの需要増加は、より低コストで開放的なインフラおよびデータネットワークへの要求を高めており、Web3の分散型ネットワークとインセンティブモデルは、よりオープンでオープンソースなAIネットワークおよびコミュニティの構築を可能にする。
AI+Web3 産業の全体像とストーリーのロジック
上記のAI生産プロセスとAI・Web3の融合方向、そして現在の市場における主要な「AI+Web3」プロジェクトを踏まえ、「AI+Web3」産業の全体像を整理した。AI+Web3の産業チェーンは大きく三層に分けられ、インフラ層、ミドルウェア層、アプリケーション層である。

1. インフラ層
主に計算資源とストレージインフラを指し、AIの作業・生産プロセス全体を通じて、モデルの訓練や推論に必要な計算能力、およびライフサイクル全期間におけるデータとモデルの保存を提供する。
現在、AIアプリケーションが急激に増加しており、特に高性能な計算能力に対する需要が爆発的に拡大している。そのため、より高性能で低コスト、かつ十分な容量を持つ計算・ストレージインフラの提供は、今後数年間(AI発展初期段階)において極めて重要なトレンドとなり、産業チェーン全体の価値の50%以上を占めると予想されている。
Web3は、分散型の計算・ストレージリソースネットワークを構築でき、未使用・分散されたリソースを活用することで、インフラコストを大幅に削減し、広範なAIアプリケーションの需要に対応できる。したがって、分散型AIインフラは現時点で最も確実性の高いストーリーである。
この分野の代表的なプロジェクトとしては、レンダリングサービスを主軸とするRender Network、分散型クラウドサービスおよび計算ハードウェアネットワークを提供するAkash、gensynなどがある。ストレージ領域では、依然としてFilecoin、Arweaveといった従来の分散型ストレージネットワークが代表的存在だが、最近ではAI分野向けのストレージ・計算サービスも提供開始している。
2. ミドルウェア層
AIの作業・生産プロセスの特定段階において、Web3関連技術を用いて現状の課題を改善することを目指す層である。主に以下の分野に分けられる:
1)データ取得段階:分散型のデータIDを活用し、よりオープンなデータネットワーク/データ取引プラットフォームを構築する。暗号技術とブロックチェーンの特性を組み合わせてユーザーのプライバシーを保護しつつデータの所有権を明確にし、インセンティブ措置により高品質なデータの共有を促進することで、データソースの拡大と取得効率の向上を図る。代表的なプロジェクトには、AIアイデンティティプロジェクトのWorldcoin、Aspecta、データ取引プラットフォームOcean Protocol、参加ハードルの低いデータネットワークGrassなどがある。
2)データ前処理段階:分散型のAIデータアノテーションおよび処理プラットフォームを構築し、経済モデルによるインセンティブでクラウドソーシング方式を促進することで、より効率的かつ低コストなデータ前処理を実現し、その後のモデル訓練をサポートする。代表的なプロジェクトにはPublic AIなどがある。
3)モデル検証および推論段階:前述の通り、データとモデルのブラックボックス化は現在のAIにおける現実的な課題である。このため、モデル検証および推論段階において、Web3はZK(ゼロ知識証明)、準同型暗号などの暗号技術を活用して、モデルが指定されたデータとパラメータを使用しているかどうかを検証し、モデルの正しさを保証しながら入力データのプライバシーを守ることができる。典型的な応用例としてZKML(ゼロ知識機械学習)がある。現時点での代表的なプロジェクトにはbittensor、Privasea、Modulusなどが挙げられる。
ミドルウェア層の多くのプロジェクトは開発者ツールに重点を置いており、既存の開発者やプロジェクトチームに対して付加価値サービスを提供するものが多い。現時点のAI発展初期段階では、その市場需要やビジネス展開はまだ発展途上にある。
3. アプリケーション層
アプリケーション層では、むしろAI技術がどのようにWeb3に応用されるかに焦点が当たる。Web3アプリケーションにAI技術を組み込むことで、効率性や製品体験を大幅に向上させることができる。例えば、AIによるコンテンツ生成、分析、推論などの機能をゲーム、ソーシャル、データ分析、金融予測などのさまざまな分野に応用できる。現在の「AI+Web3」アプリケーションは主に以下の三つのカテゴリーに分けられる。
1)AIGC系:AI生成技術を用いて、ユーザーが対話形式で文章、画像、動画、アバターなどを生成できるようにする。単体のAIエージェントとして提供される場合や、製品に直接統合される形もある。代表的なプロジェクトにはNFPrompt、SleeplessAIなどがある。
2)AI分析系:プロジェクト側が蓄積したデータ、ナレッジベース、分析能力などを活用して、特定分野に特化したAIモデルを訓練し、分析・判断・予測などの機能を製品化してユーザーに提供する。これにより、ユーザーは低コストでAI分析能力を利用できるようになる。具体的にはデータ分析、情報追跡、コード監査・修正、金融予測などが含まれる。代表的なプロジェクトにはKaito、Duneなどがある。
3)AIエージェントハブ:多様なAIエージェントを統合・提供するプラットフォームで、通常はノーコードでカスタマイズ可能なAIエージェントを作成できる機能を備える。いわばGPTsのような存在である。代表的なプロジェクトにはMy Shell、Fetch.aiなどがある。
アプリケーション層には現時点では突出したトッププレイヤーは現れていないが、長期的には最も大きな成長余地を持つセグメントであり、非常に大きな潜在的可能性を秘めている。AI+Web3アプリケーションの競争は技術革新力ではなく、製品力と技術的蓄積の競争である。特にAI分野において優れたユーザーエクスペリエンスを提供できる企業が、この分野でより大きな競争優位を得ることになるだろう。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News











