
Comment le protocole Mira utilise-t-il un mécanisme de consensus décentralisé pour rendre l'IA plus honnête ?
TechFlow SélectionTechFlow Sélection

Comment le protocole Mira utilise-t-il un mécanisme de consensus décentralisé pour rendre l'IA plus honnête ?
Mira propose une nouvelle approche : plutôt que de s'appuyer sur une seule IA pour déterminer la réponse, elle fait appel à un ensemble de modèles indépendants qui « votent » pour établir la vérité.
Auteur : Messari
Traduction : Elponcho, Link News
À l'ère du développement fulgurant de l'IA générative, un problème fondamental persiste : l'IA peut parfois affirmer des absurdités avec une totale assurance. Ce phénomène est connu dans le secteur sous le nom d’« hallucination ». Mira, un protocole décentralisé conçu spécifiquement pour la vérification des sorties d'IA, cherche à ajouter une « crédibilité factuelle » aux IA grâce à un mécanisme de consensus multi-modèle et à des audits cryptographiques. Voici comment fonctionne Mira, pourquoi il s'avère plus efficace que les méthodes traditionnelles, ainsi que ses résultats concrets à ce jour.
Ce rapport est rédigé sur la base d’un étude publiée par Messari.
Protocole décentralisé de vérification factuelle : principe de fonctionnement de base de Mira
Mira n'est pas un modèle d'IA, mais une couche de vérification intégrée. Lorsqu'un modèle d'IA produit une réponse (par exemple, une réponse de chatbot, un résumé ou un rapport automatisé), Mira décompose cette sortie en une série d'affirmations factuelles indépendantes. Ces affirmations sont ensuite envoyées vers son réseau de validation distribué, où chaque nœud (c’est-à-dire chaque validateur) exécute un modèle d'IA différent pour évaluer la véracité de ces affirmations.
Chaque nœud attribue à chaque affirmation un jugement de « correct », « incorrect » ou « incertain ». Le système prend ensuite une décision globale basée sur le consensus majoritaire. Si la majorité des modèles confirment qu'une affirmation est vraie, celle-ci est validée ; sinon, elle est marquée, rejetée ou accompagnée d’un avertissement.
Ce processus est entièrement transparent et vérifiable. Chaque vérification génère un certificat cryptographique indiquant les modèles impliqués, les résultats de vote, les horodatages, etc., accessibles à tout tiers pour audit.
Pourquoi l'IA a-t-elle besoin d’un système de vérification comme Mira ?
Les modèles d’IA générative (comme GPT ou Claude) ne sont pas des outils déterministes : ils prédisent probabilistement le prochain token sans posséder de « sens factuel » intégré. Cette conception leur permet d’écrire des poèmes ou des blagues, mais implique aussi qu’ils puissent produire sérieusement de fausses informations.
Le mécanisme de vérification proposé par Mira vise précisément à résoudre quatre problèmes fondamentaux actuels de l’IA :
-
Problème d’hallucinations généralisées : l’IA invente des politiques, falsifie des événements historiques ou cite de faux documents.
-
Fonctionnement en boîte noire : les utilisateurs ignorent d'où proviennent les réponses de l’IA et ne peuvent pas les retracer.
-
Incohérence des sorties : la même question peut obtenir des réponses différentes.
-
Contrôle centralisé : la majorité des modèles d’IA sont aujourd’hui monopolisés par quelques grandes entreprises, empêchant toute vérification indépendante ou second avis.
Limites des méthodes traditionnelles de vérification
Les solutions alternatives actuelles — comme la révision humaine (human-in-the-loop), les filtres basés sur des règles ou l’auto-vérification du modèle — présentent toutes des insuffisances :
-
Révision humaine : difficile à mettre à l'échelle, lente et coûteuse.
-
Filtres basés sur des règles : limités aux scénarios prédéfinis, inefficaces face aux erreurs créatives.
-
Auto-vérification du modèle : peu efficace, car l’IA fait souvent preuve d’une trop grande confiance en ses erreurs.
-
Ensemble centralisé : bien qu’il permette des vérifications croisées, il manque de diversité de modèles, conduisant facilement à des « points aveugles collectifs ».
Le mécanisme innovant de Mira : combinaison du consensus et de la spécialisation des IA
L'innovation clé de Mira consiste à appliquer le concept de consensus blockchain à la vérification de l’IA. Chaque sortie d’IA, après passage par Mira, est divisée en plusieurs déclarations factuelles indépendantes, soumises au « vote » de divers modèles d’IA. Seul le contenu faisant l’objet d’un accord au-delà d’un certain seuil de modèles est considéré comme fiable.
Avantages clés de la conception de Mira :
-
Diversité des modèles : des modèles aux architectures et bases de données variées réduisent les biais collectifs.
-
Tolérance aux erreurs : même si certains nœuds se trompent, cela n’affecte pas le résultat global.
-
Transparence complète sur chaîne : les enregistrements de vérification sont stockés sur blockchain, auditable à tout moment.
-
Fort potentiel d’extension : capacité à vérifier plus de 3 milliards de tokens par jour (équivalent à des millions de segments textuels).
-
Aucune intervention humaine requise : entièrement automatisé, sans besoin de vérification manuelle.
Infrastructure décentralisée : qui fournit les nœuds et les ressources de calcul ?
Les nœuds de vérification de Mira sont fournis par des contributeurs mondiaux de calcul décentralisé. Ces contributeurs, appelés Node Delegators (délégués de nœuds), ne gèrent pas directement les nœuds, mais louent leurs ressources GPU à des opérateurs de nœuds certifiés. Ce modèle de « calcul en tant que service » étend considérablement l’échelle de traitement possible de Mira.
Fournisseurs principaux de nœuds :
-
Io.Net : fournit un réseau de calcul GPU basé sur l’architecture DePIN.
-
Aethir : spécialisé dans le cloud GPU décentralisé pour l’IA et les jeux.
-
Hyperbolic, Exabits, Spheron : plusieurs plateformes de calcul blockchain fournissant également l’infrastructure aux nœuds Mira.
Les participants aux nœuds doivent passer par une procédure de vérification vidéo KYC afin d’assurer l’unicité et la sécurité du réseau.
Mira améliore le taux de justesse de l’IA jusqu’à 96 %
Selon les données de l’équipe Mira citées dans le rapport de Messari, après filtrage via sa couche de vérification, le taux de justesse factuelle des grands modèles linguistiques passe de 70 % à 96 %. Dans des cas pratiques comme l’éducation, la finance ou le service client, la fréquence des contenus hallucinés diminue de 90 %. Ce gain est obtenu sans aucun réentraînement des modèles d’IA, uniquement par filtrage.
Mira est déjà intégré à plusieurs plateformes, notamment :
-
Outils éducatifs
-
Produits d’analyse financière
-
Chatbots IA
-
Services API Verified Generate tiers
L’écosystème Mira totalise plus de 4,5 millions d’utilisateurs, dont plus de 500 000 actifs quotidiennement. Bien que la majorité n’interagisse pas directement avec Mira, leurs réponses d’IA ont déjà été discrètement vérifiées par ce mécanisme en arrière-plan.
Mira construit la couche fondamentale de fiabilité de l’IA
Alors que l’industrie de l’IA privilégie de plus en plus l’échelle et l’efficacité, Mira propose une nouvelle voie : ne pas laisser une seule IA décider de la réponse, mais faire voter un ensemble de modèles indépendants pour « valider la vérité ». Cette architecture rend non seulement les sorties plus fiables, mais instaure aussi un mécanisme de « confiance vérifiable », hautement extensible.
Avec la croissance du nombre d’utilisateurs et la généralisation progressive des vérifications tierces, Mira pourrait devenir une infrastructure indispensable dans l’écosystème IA. Pour tout développeur ou entreprise souhaitant que son IA soit robuste dans des applications réelles, la « couche de vérification décentralisée » incarnée par Mira pourrait bien constituer une pièce essentielle du puzzle.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














