
マルチモデル合意+分散型検証:Mira NetworkはいかにしてAIの信頼レイヤーを構築し、ハルシネーションとバイアスに抗うのか?
TechFlow厳選深潮セレクト

マルチモデル合意+分散型検証:Mira NetworkはいかにしてAIの信頼レイヤーを構築し、ハルシネーションとバイアスに抗うのか?
MiraネットワークはAIの信頼レイヤーの構築を目指しているが、そもそもなぜAIには信頼性が求められるのか?またMiraはこの問題をどのように解決しようとしているのか?
Miraネットワークのパブリックテストネットが昨日ローンチされたのを見た。これはAIの信頼層を構築しようとしている。では、なぜAIに信頼性が必要なのか?また、Miraはこの問題をどう解決しようとしているのか?
人々がAIについて話すとき、その強力な能力に注目する傾向がある。しかし興味深いことに、AIには「ハルシネーション(幻覚)」やバイアスが存在するが、これについてはあまり関心が払われていない。AIの「ハルシネーション」とは簡単に言えば、AIが時に事実無根の内容をでっちあげ、一見もっともらしく誤情報を生成することを指す。例えば、「月がピンク色なのはなぜか?」とAIに尋ねると、それなりに理にかなった説明を堂々と提示してくるかもしれない。
このようなAIの「ハルシネーション」やバイアスは、現在のAI技術のアプローチと関係がある。たとえば、ジェネレーティブAIは「最も確からしい」出力を予測することで、連続的かつ整合性のある応答を実現しているが、真偽の検証ができない場合がある。さらに、トレーニングデータ自体に誤り、バイアス、あるいは虚構の情報が含まれていることも、AIの出力に影響を与える要因となる。つまり、AIは事実そのものではなく、人間の言語パターンを学習しているのである。
まとめると、現在の確率ベースの生成方式とデータ駆動型のアプローチでは、AIハルシネーションの発生はほぼ避けられない。
偏見や幻覚を含む出力が一般知識や娯楽コンテンツであれば、直接的な被害は限定的だが、医療、法務、航空、金融など高い正確性が求められる分野では、重大な結果を招く可能性がある。そのため、AIのハルシネーションやバイアスをどう解決するかは、AIの進化において中心的な課題の一つである。これに対して、いくつかの対策が提案されている。たとえば、リトリバル拡張生成(RAG)技術を用いてリアルタイムデータベースと連携し、検証済みの事実を優先的に出力する方法や、人間のフィードバックを導入し、手動でのラベリングや監督を通じてモデルの誤りを修正する方法などがある。
Miraプロジェクトもまた、AIのバイアスとハルシネーションの問題に取り組んでおり、つまりAIの信頼層を構築し、AIのバイアスとハルシネーションを減らして信頼性を高めようとしている。全体の枠組みとして、MiraはどのようにAIのバイアスとハルシネーションを低減し、最終的に信頼できるAIを実現しようとしているのか?
Miraがこれを実現する核となるのは、複数のAIモデルによるコンセンサス(合意形成)を通じてAIの出力を検証するという点にある。つまり、Mira自体は検証ネットワークであり、AI出力の信頼性を検証するために、複数のAIモデルの合意を利用している。さらに重要なのは、この検証が非中央集権的なコンセンサスによって行われる点だ。
したがって、Miraネットワークの鍵は非中央集権的なコンセンサスによる検証にある。非中央集権的なコンセンサス検証は暗号分野の得意とする領域であり、同時に複数モデルの協働も活用し、集団による検証モードを通じてバイアスやハルシネーションを低減する。
検証アーキテクチャとしては、独立して検証可能なステートメント(主張)が必要になる。Miraプロトコルは、複雑なコンテンツを独立検証可能なステートメントに変換することをサポートしている。これらのステートメントはノード運営者が検証に参加し、その誠実さを保証するために、暗号経済インセンティブ/ペナルティが利用される。異なるAIモデルと分散したノード運営者が参加することで、検証結果の信頼性が確保される。
Miraのネットワークアーキテクチャは、コンテンツ変換、分散検証、およびコンセンサスメカニズムから成り、検証の信頼性を実現している。この構造において、コンテンツ変換は重要な要素である。Miraネットワークはまず、クライアントが提出した候補コンテンツを、検証可能な個別のステートメントに分解する(これにより、すべてのモデルが同じ文脈で理解できるようにする)。これらのステートメントはシステムによってノードに配布され、有効性が検証され、結果が集約されてコンセンサスが形成される。得られた結果とコンセンサスはクライアントに返される。また、クライアントのプライバシーを保護するため、候補コンテンツはステートメントのペアに分解され、ランダムなシャーディング方式で異なるノードに配布され、検証過程での情報漏洩を防ぐ。
ノード運営者は、バリデーターモデルを実行し、ステートメントを処理して検証結果を提出する役割を担う。ではなぜノード運営者は検証作業に参加する気になるのか?それは報酬を得られるからである。報酬の原資は何か?それはクライアントに提供する価値から生じる。Miraネットワークの目的はAIのエラー率(ハルシネーションとバイアス)を下げることであり、それが達成されれば価値が生まれる。たとえば、医療、法務、航空、金融などの分野でエラー率を低下させることで、大きな価値が創出される。そのため、クライアントは支払い意愿を持つ。もちろん、支払いの持続可能性と規模は、Miraネットワークが継続的にクライアントに価値を提供できるかどうか(AIのエラー率を下げ続けられるか)に依存する。また、ノードが適当に応答する投機的行動を防ぐために、コンセンサスから継続的に逸脱するノードはステーキングトークンが削減される。つまり、経済的インセンティブのゲーム理論を通じて、ノード運営者が誠実に検証に参加することを保証している。
総じて、MiraはAIの信頼性を実現するための新しい解決策を提供している。それは複数のAIモデルを基盤とし、非中央集権的なコンセンサス検証ネットワークを構築することで、クライアントのAIサービスに高い信頼性をもたらし、AIのバイアスとハルシネーションを低減し、より高い正確性と精度を求めるニーズに応えるものである。そして、クライアントに価値を提供する一方で、Miraネットワークの参加者にも報酬をもたらす。一言で言えば、MiraはAIの信頼層を構築しようとしている。これはAIアプリケーションの深化を推進する上で重要な役割を果たすだろう。
現在、Miraが提携しているAIエージェントフレームワークにはai16z、ARCなどが含まれる。Miraネットワークのパブリックテストネットは昨日開始された。ユーザーはMiraのパブリックテストネットに参加する際、Klokを使用すればよい。KlokはMiraに基づくLLMチャットアプリであり、これを使うことで検証済みのAI出力を体験できる(検証なしのAI出力との違いを比較可能)。また、Miraポイントを獲得することもできる。ポイントの将来の用途については、現時点では明らかにされていない。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News













