
Miraプロトコルは、分散型コンセンサスメカニズムを通じてAIにより誠実さをもたらす方法とは?
TechFlow厳選深潮セレクト

Miraプロトコルは、分散型コンセンサスメカニズムを通じてAIにより誠実さをもたらす方法とは?
Miraは新しい方向性を提供している:単一のAIに答えを決定させるのではなく、一連の独立したモデルが「投票によって真実を決定」する方式だ。
著者:Messari
翻訳:Elponcho、链新闻
生成AIが急速に発展する今日でも、依然として根本的な問題を解決できていない。それはAIが時に真面目な顔で嘘をつくという現象であり、業界ではこれを「ハルシネーション(hallucination)」と呼んでいる。MiraはAI出力を検証するために設計された分散型プロトコルであり、マルチモデル合意メカニズムと暗号化監査を通じて、AIに「事実の信頼性」を付加しようとしている。以下では、Miraの仕組みや従来手法より優れた点、そして現在の実用化成果について紹介する。
本レポートの内容は、Messariが公開したリサーチレポートに基づいて整理・執筆したものである。
分散型の事実検証プロトコル:Miraの基本的な仕組み
MiraはAIモデルそのものではなく、埋め込み型の検証レイヤーである。AIモデルが出力した応答(例:チャットボットの回答、要約、自動レポートなど)に対し、Miraはその出力を一連の独立した事実主張に分解する。これらの主張は分散検証ネットワークに送られ、各ノード(検証者)が異なるアーキテクチャを持つAIモデルを個別に実行し、それぞれの主張の真偽を評価する。
各ノードは主張に対して「正しい」「誤り」「不確実」という判断を行い、システムは多数決によるコンセンサスに基づいて最終的な判定を行う。多数のモデルが真であると認めた主張は承認され、そうでない場合は注釈付きで却下されるか、警告が表示される。
このプロセスは完全に透明かつ監査可能である。すべての検証処理には、参加したモデル、投票結果、タイムスタンプなどを記録した暗号証明書が生成され、第三者による照会が可能となる。
なぜAIにはMiraのような検証システムが必要なのか?
生成AIモデル(GPT、Claudeなど)は決定論的ツールではなく、次の文字を確率的に予測する仕組みを持っており、「事実認識」機能を内蔵していない。この設計により詩を書いたりジョークを言ったりできる一方で、時に真剣な態度で誤った情報を生み出す可能性がある。
Miraが提案する検証メカニズムは、AIが現在直面している以下の4つの核心的課題を解決することを目的としている。
-
ハルシネーションの蔓延:AIが政策をでっちあげたり、歴史的事実を捏造したり、文献を誤って引用するケースが後を絶たない。
-
ブラックボックス化:ユーザーはAIの答えがどこから来たのか知ることができず、追跡不能である。
-
出力の一貫性欠如:同じ質問に対しても、AIは異なる答えを返すことがある。
-
中央集権的管理:現状では大多数のAIモデルが少数企業によって独占されており、ユーザーはそのロジックを検証したり代替意見を求めたりできない。
従来の検証手法の限界
現在の代替手段として人間によるレビュー(Human-in-the-loop)、ルールベースフィルター、モデル自身による自己検証などがあるが、いずれも限界がある。
-
人間によるレビューは規模拡大が難しく、速度が遅くコストも高い。
-
ルールベースフィルタリングは事前定義されたシナリオに限定され、創造的な誤りには対応できない。
-
モデル自己検証は効果が低く、AIは誤った回答に対しても過度に自信を持つ傾向がある。
-
集中型アンサンブルは相互チェックが可能だが、モデルの多様性が不足しており、「集団的盲点」を形成しやすい。
Miraの革新メカニズム:合意形成とAI分業の統合
Miraの画期的な点は、ブロックチェーンの合意形成の概念をAI検証に導入したことにある。AIの出力はMiraを通過することで複数の独立した事実声明に分割され、さまざまなAIモデルがそれに対して「投票」を行う。一定割合以上のモデルが一致した場合にのみ、その内容は信頼できると見なされる。
Miraの主要な設計上の利点は以下の通り:
-
モデルの多様性:異なるアーキテクチャおよびデータ背景を持つモデルにより、集団的バイアスを低減。
-
エラー耐性:一部のノードが誤っても、全体の結果に影響しない。
-
完全なチェーン上での透明性:検証記録はチェーン上に保存され、監査が可能。
-
高い拡張性:1日あたり30億トークン以上(数百万人分の文章に相当)を検証可能。
-
人的介入不要:自動化されており、人手による検証は不要。
分散型インフラ:ノードと計算資源の提供者は誰か?
Miraの検証ノードは、グローバルな分散型コンピューティング貢献者によって提供されている。これら貢献者はNode Delegators(ノード委任者)と呼ばれ、直接ノードを運営するのではなく、認証済みのノード運営者にGPU計算資源を貸し出す形を取っている。「コンピューティング・アズ・ア・サービス」モデルにより、Miraの処理規模は大幅に拡大されている。
主要な協力ノードサプライヤーには以下が含まれる:
-
Io.Net:DePINアーキテクチャのGPUコンピューティングネットワークを提供。
-
Aethir:AIおよびゲーム向けの分散型クラウドGPUに特化。
-
Hyperbolic、Exabits、Spheron:複数のブロックチェーンコンピューティングプラットフォームが、Miraノードにインフラを提供。
ノード参加者は、ネットワークの唯一性と安全性を確保するためにKYCビデオ認証プロセスを通過する必要がある。
Miraの検証によりAIの正解率は96%に向上
Messariレポートに掲載されたMiraチームのデータによると、Miraの検証レイヤーを経由することで、大規模言語モデルの事実正解率は70%から96%まで向上した。教育、金融、カスタマーサポートなどの実際の利用シーンでは、ハルシネーションの発生頻度が90%低下した。重要なのは、これらの改善はAIモデルの再訓練なしに、「フィルタリング」のみで達成されたということである。
現在Miraはすでに以下のアプリケーションプラットフォームに統合されている。
-
教育ツール
-
金融分析製品
-
AIチャットボット
-
第三者Verified Generate APIサービス
Miraエコシステム全体では450万人以上のユーザーを擁し、毎日のアクティブユーザーは50万人以上に達している。多くのユーザーはMiraを直接利用していないが、彼らが受け取るAIの応答はすでに裏側でMiraによる検証を経ている。
Miraが築くAIの信頼基盤層
AI産業が規模と効率を追求する中で、Miraは新たな方向性を提示している。つまり、単一のAIが答えを決めるのではなく、複数の独立したモデルが「投票」によって真偽を決定するというアプローチである。このアーキテクチャは出力結果の信頼性を高めるだけでなく、「検証可能な信頼メカニズム」を構築し、高い拡張性も兼ね備えている。
ユーザー規模の拡大と第三者監査の普及に伴い、MiraはAIエコシステムにおいて欠かせないインフラストラクチャーとなる可能性を秘めている。現実世界での応用において信頼性が求められるAIを開発・運用するすべての開発者や企業にとって、Miraが示す「分散型検証レイヤー」はまさに鍵となる要素の一つとなり得るだろう。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News














