
Associé de Hack VC : les 8 véritables avantages de l'IA + Crypto
TechFlow SélectionTechFlow Sélection

Associé de Hack VC : les 8 véritables avantages de l'IA + Crypto
Analyse de la convergence entre cryptographie et intelligence artificielle : quels sont les véritables défis et opportunités ? Quelles promesses sont creuses, et lesquelles sont réellement réalisables ?
Rédaction : Ed Roman, associé gérant chez Hack VC
Traduction : 1912212.eth, Foresight News
L'association entre l'IA et la cryptomonnaie est l'un des domaines les plus en vue du marché récent, notamment avec l'entraînement décentralisé de modèles d'IA, les GPU DePINs et les modèles d'IA résistants à la censure.
Derrière ces avancées impressionnantes, une question s'impose : s'agit-il de véritables percées technologiques ou simplement d'une tentative de surf sur la vague du moment ? Cet article vous aide à y voir clair, en analysant les idées fortes autour de l'union crypto-IA, leurs véritables défis et opportunités, tout en distinguant les promesses creuses des solutions réellement réalisables.
Idée #1 : Entraînement décentralisé de l'IA
Le problème de l’entraînement d’IA sur blockchain réside dans le besoin de communication ultra-rapide entre GPU, car les réseaux neuronaux nécessitent la rétropropagation pendant l’apprentissage. À cet effet, Nvidia a développé deux innovations majeures (NVLink et InfiniBand), permettant une communication extrêmement rapide mais limitée aux GPU regroupés dans un même centre de données (vitesses supérieures à 50 Gb/s).
Introduire un réseau décentralisé implique une augmentation significative de la latence et de la bande passante, ce qui ralentit drastiquement les opérations — jusqu’à plusieurs ordres de grandeur. Comparé au débit offert par les interconnexions rapides de Nvidia dans un centre de données, cette vitesse devient inutilisable pour l'entraînement d'IA.
Toutefois, certaines innovations futures pourraient offrir des perspectives :
-
Des entraînements distribués à grande échelle via InfiniBand sont possibles, puisque NVIDIA soutient nativement l'entraînement distribué non local grâce à sa bibliothèque NVIDIA Collective Communications Library. Toutefois, cette technologie en est encore à ses balbutiements, et son adoption reste incertaine. La limite physique imposée par la distance persiste, rendant l'entraînement local bien plus rapide.
-
De nouvelles recherches sur l'entraînement décentralisé visent à réduire les temps de synchronisation de communication, ce qui pourrait rendre cette approche plus viable à l’avenir.
-
Des méthodes intelligentes de découpage et d'ordonnancement des modèles peuvent améliorer les performances. De nouveaux modèles architecturaux pourraient aussi être conçus spécifiquement pour fonctionner sur des infrastructures distribuées (Gensyn travaille actuellement sur ces sujets).
La gestion des données pose également un défi majeur. Tout processus d'entraînement d'IA implique le traitement massif de données, généralement stockées et manipulées dans des systèmes centralisés sécurisés, hautement évolutifs et performants. Cela exige le transfert et le traitement de plusieurs téraoctets de données, souvent bruyantes et contenant des erreurs. Une phase cruciale consiste donc à nettoyer, normaliser, filtrer et traiter les valeurs manquantes — des tâches itératives particulièrement difficiles à mettre en œuvre dans un environnement décentralisé.
En outre, le caractère itératif de l'entraînement entre en conflit avec les principes de Web3. OpenAI a effectué des milliers d’itérations avant d’obtenir ses résultats. Dans une équipe IA classique, les scientifiques des données passent leur temps à définir des objectifs, préparer les données, analyser et nettoyer celles-ci, puis développer et tester des modèles. Si les performances ne sont pas satisfaisantes, ils reviennent en arrière pour ajuster les données ou le modèle. Imaginer ce processus complexe dans un cadre décentralisé montre rapidement l’inadéquation des outils et frameworks actuels de Web3.
Un autre problème lié à l’entraînement sur chaîne est que ce marché suscite moins d’intérêt que l’inférence. Actuellement, l’entraînement de grands modèles linguistiques (LLM) requiert d’énormes ressources GPU. Mais à long terme, l’inférence deviendra l’usage principal de ces puces. Combien de fois faut-il entraîner un LLM pour répondre à la demande mondiale, comparé au nombre d’utilisateurs qui souhaitent simplement utiliser ces modèles ? La réponse est évidente.
Idée #2 : Calcul redondant d’inférence IA pour atteindre un consensus
Un autre défi posé par l’union entre crypto et IA est la vérification de la justesse des inférences IA, car on ne peut faire entièrement confiance à une seule entité centralisée. Les nœuds peuvent potentiellement tricher. Ce problème n’existe pas dans l’IA Web2, où il n’y a pas de système de consensus décentralisé.
La solution proposée est le calcul redondant : plusieurs nœuds exécutent indépendamment la même inférence, garantissant ainsi un résultat fiable sans avoir à faire confiance à un tiers unique.
Cependant, cette méthode multiplie les coûts. Les puces IA haut de gamme font déjà cruellement défaut, et les délais d’attente pour obtenir des GPU NVIDIA peuvent atteindre plusieurs années, poussant les prix à la hausse. Exiger que chaque inférence soit reproduite sur plusieurs nœuds rend cette solution économiquement inviable pour de nombreux projets.
Idée #3 : Cas d’usage IA spécifiques à court terme pour Web3
Certains proposent que Web3 développe ses propres cas d’usage IA, spécialement conçus pour ses utilisateurs. Par exemple : un protocole Web3 utilisant l’IA pour évaluer le risque des pools DeFi, un portefeuille Web3 recommandant des protocoles selon l’historique des transactions, ou encore un jeu Web3 intégrant des personnages non-joueurs (NPC) contrôlés par l’IA.
À ce stade, ce marché est encore embryonnaire, en phase exploratoire. Parmi les défis :
-
La demande reste faible, ce qui limite le volume d’opérations IA nécessaires.
-
Les clients Web3 sont beaucoup moins nombreux que ceux de Web2, ce qui restreint la taille du marché et limite la décentralisation.
-
Ces clients sont eux-mêmes instables — souvent des startups à faible financement, susceptibles de disparaître. Les fournisseurs de services IA Web3 doivent alors constamment remplacer leur base client, ce qui complique considérablement la croissance.
À long terme, nous sommes optimistes sur ces cas d’usage natifs à Web3, surtout avec la montée en puissance des agents IA autonomes. Nous imaginons un futur où chaque utilisateur Web3 sera assisté par une multitude d’agents IA dédiés à diverses tâches.
Idée #4 : GPU DePIN grand public
Plusieurs réseaux de calcul IA décentralisés reposent sur des GPU grand public plutôt que sur des centres de données. Ces cartes conviennent bien aux inférences IA légères, ou aux applications consommateurs tolérantes à la latence, à la bande passante variable et à une fiabilité moindre. Mais pour les entreprises (qui constituent la majorité du marché rentable), les exigences sont plus élevées : fiabilité accrue et GPU puissants pour les tâches complexes. Pour ces besoins, les centres de données restent bien mieux adaptés.
Nous pensons que les GPU grand public ont leur place pour les démonstrations, les utilisateurs individuels ou les jeunes startups capables de tolérer une fiabilité réduite. Mais ces segments génèrent peu de valeur. Les DePINs orientés vers les entreprises Web2 auront donc, à long terme, un impact bien plus important. D’ailleurs, les projets GPU DePIN évoluent déjà : ils passent progressivement des matériels grand public aux A100/H100, avec une disponibilité comparable à celle des clusters professionnels.
La réalité — Les cas d’usage concrets de crypto x IA
Passons maintenant aux cas d’usage réellement bénéfiques — là où l’alliance crypto-IA apporte une valeur tangible.
Bénéfice réel #1 : Servir les clients Web2
McKinsey estime qu’à travers 63 cas d’usage analysés, l’IA générative pourrait générer annuellement entre 2,6 et 4,4 billions de dollars — comparé au PIB britannique de 3,1 billions en 2021. Cela représenterait une augmentation de productivité de 15 % à 40 %. Et si l’on inclut l’impact de l’intégration de l’IA générative dans d’autres logiciels, cet effet pourrait doubler.
En extrapolant ces chiffres, le marché total de l’IA (au-delà de la génération) pourrait atteindre des dizaines de milliers de milliards de dollars. Comparativement, la capitalisation totale de toutes les cryptomonnaies (Bitcoin inclus) est aujourd’hui d’environ 2,7 billions de dollars. Il faut donc être réaliste : la majorité des clients ayant besoin d’IA seront des clients Web2. Les clients Web3 nécessitant de l’IA ne représenteront qu’une très petite fraction de ce 2,7 billions (sans compter que Bitcoin, lui, n’a aucun besoin d’IA).
Les cas d’usage IA Web3 en sont encore à leurs débuts, et leur taille exacte reste incertaine. Une chose est sûre : dans un avenir prévisible, ils ne représenteront qu’une infime part du marché Web2. Nous croyons en un bel avenir pour l’IA Web3, mais cela signifie que sa plus forte application actuelle est de servir les clients Web2.
Quelques exemples de clients Web2 pouvant bénéficier de l’IA Web3 :
-
Sociétés logicielles verticales centrées sur l’IA (ex. Cedar.ai ou Observe.ai)
-
Grandes entreprises affinant des modèles pour leurs besoins internes (ex. Netflix)
-
Fournisseurs IA en forte croissance (ex. Anthropic)
-
Entreprises intégrant l’IA à leurs produits existants (ex. Canva)
Ces clients sont relativement stables : grands, solvables, peu susceptibles de disparaître rapidement. Ils représentent donc une base précieuse pour les services IA Web3.
Mais pourquoi ces clients Web2 adopteraient-ils la pile Web3 ? La suite de cet article y répond.
Bénéfice réel #2 : Réduction du coût d’utilisation des GPU via les GPU DePIN
Les GPU DePIN agrègent la puissance de calcul GPU inexploitée (principalement provenant de centres de données) et la rendent accessible à l’inférence IA. On peut y voir une sorte de « Airbnb des GPU ».
Ce qui nous enthousiasme, c’est la pénurie actuelle de puces NVIDIA combinée à l’existence de cycles GPU gaspillés. Les propriétaires de matériel ont déjà supporté le coût initial, et n’utilisent pas pleinement leurs machines. Offrir une partie de cette capacité à bas coût devient donc une source de revenus supplémentaire — une manière efficace de monétiser du matériel sous-utilisé.
Exemples :
-
Machines AWS : louer un H100 chez AWS aujourd’hui exige un engagement d’un an, ce qui crée du gaspillage si vous n’utilisez pas la carte 24h/24.
-
Matériel minier Filecoin : Filecoin dispose de beaucoup de matériel subventionné mais peu de demande réelle. N’ayant jamais trouvé son produit/marché, les mineurs risquent la fermeture. Leurs GPU peuvent être réaffectés à des tâches d’inférence IA simples.
-
Matériel minier ETH : la transition d’Ethereum de PoW à PoS a libéré massivement du matériel GPU, réutilisable pour l’inférence IA.
Attention : tous les GPU ne conviennent pas à l’inférence IA. Certains anciens modèles manquent de mémoire GPU nécessaire aux grands modèles linguistiques. Toutefois, des innovations comme celle d’Exabits — qui charge les neurones actifs en mémoire GPU et les inactifs en RAM — permettent d’utiliser des GPU bas de gamme pour des charges de travail IA, même avec peu de VRAM.
À mesure qu’ils évoluent, les DePINs IA Web3 devront proposer des services d’entreprise : authentification unique, conformité SOC 2, accords de niveau de service (SLA), etc., similaires aux offres des fournisseurs cloud traditionnels.
Bénéfice réel #3 : Modèles résistants à la censure, pour éviter l’autocensure d’OpenAI
Beaucoup discutent de la censure en IA. Par exemple, la Turquie a temporairement bloqué OpenAI (avant que celui-ci n’améliore sa conformité). Nous trouvons les censures nationales peu pertinentes : les pays ont besoin d’adopter l’IA pour rester compétitifs.
OpenAI pratique aussi l’autocensure. Il refuse de traiter les contenus NSFW ou de prédire les élections présidentielles. Nous pensons que ces cas d’usage sont non seulement intéressants, mais aussi porteurs d’un marché énorme — que OpenAI ignore pour des raisons politiques.
L’open source est une excellente alternative, car les dépôts GitHub ne dépendent ni d’actionnaires ni de conseils d’administration. Venice.ai, par exemple, s’engage à protéger la vie privée et à fonctionner de manière résistante à la censure. L’IA Web3 peut amplifier cela en hébergeant ces modèles open source (OSS) sur des clusters GPU à faible coût, pour exécuter l’inférence. C’est pourquoi nous voyons dans OSS + Web3 la combinaison idéale pour une IA libre de censure.
Bénéfice réel #4 : Éviter d’envoyer des informations personnelles identifiables à OpenAI
Les grandes entreprises sont préoccupées par la confidentialité de leurs données internes. Faire confiance à un tiers comme OpenAI pour les traiter peut être problématique.
Sur Web3, l’idée de voir ces données circuler sur un réseau décentralisé peut sembler encore plus risquée. Pourtant, des innovations en matière de protection de la vie privée apparaissent :
Environnements d'exécution confidentiels (TEE), comme Super Protocol
Chiffrement homomorphe complet (FHE), comme Fhenix.io (portfolio d’un fonds géré par Hack VC) ou Inco Network (tous deux soutenus par Zama.ai), ainsi que Bagel avec son PPML
Ces technologies évoluent rapidement. Grâce aux futurs ASIC ZK et FHE, leurs performances continueront de s’améliorer. L’objectif à long terme est de protéger les données d’entreprise lors de l’affinage des modèles. Avec ces protocoles, Web3 pourrait devenir un lieu plus attrayant pour le calcul IA privé.
Bénéfice réel #5 : Profiter des dernières innovations des modèles open source
Depuis des décennies, les logiciels open source grignotent des parts de marché aux logiciels propriétaires. Nous voyons les LLM comme une forme de logiciel propriétaire que l’OSS peut perturber. Des challengers notables comme Llama, RWKV ou Mistral.ai en sont la preuve. Cette liste ne fera que s’allonger (une version complète est disponible sur Openrouter.ai). En exploitant l’IA Web3 alimentée par des modèles OSS, on peut tirer parti de ces innovations.
Nous croyons qu’à long terme, la combinaison d’une communauté mondiale de développeurs open source et d’incitations cryptographiques accélérera l’innovation autour des modèles OSS, ainsi que des agents et cadres construits dessus. Un exemple est Theoriq, qui utilise des modèles OSS pour créer un réseau composable d’agents IA interconnectés, assemblables en solutions plus complexes.
Notre confiance repose sur l’histoire : progressivement, la plupart des innovations en « logiciels pour développeurs » ont été surpassées par l’OSS. Microsoft, autrefois purement propriétaire, est désormais le contributeur n°1 sur GitHub. Regardez comment Databricks, PostgreSQL, MongoDB et autres ont bouleversé les bases de données propriétaires — un précédent très parlant.
Toutefois, un défi subsiste : OpenAI commence à signer des accords payants pour accéder à des données (Reddit, New York Times…). Si cette tendance se poursuit, les modèles open source pourraient avoir du mal à concurrencer faute de moyens financiers pour acquérir des données. Nvidia pourrait renforcer ses efforts en calcul confidentiel pour faciliter le partage sécurisé de données. L’avenir nous le dira.
Bénéfice réel #6 : Atteindre un consensus via échantillonnage aléatoire à forte sanction ou via preuves ZK
Un défi majeur de l’IA Web3 est la vérification de l’inférence. Si les validateurs peuvent tricher pour gagner des frais, il faut un mécanisme de contrôle. Ce type de fraude n’est pas encore courant — l’inférence IA en est encore à ses débuts — mais elle deviendra inévitable sans contre-mesures.
L’approche standard en Web3 consiste à dupliquer l’opération sur plusieurs validateurs et comparer les résultats. Mais comme vu précédemment, cela multiplie les coûts, déjà élevés en raison de la pénurie de puces NVIDIA. Or, l’un des atouts du Web3 est justement de proposer des inférences à moindre coût via les DePIN. La redondance minerait donc cet avantage.
Une solution plus prometteuse : générer des preuves ZK pour les calculs d’inférence hors chaîne. Une preuve ZK concise peut alors valider qu’un modèle a été correctement formé ou qu’une inférence a été exécutée fidèlement (on parle de zkML). Des projets comme Modulus Labs ou ZKonduit travaillent là-dessus. Bien que les opérations ZK soient encore coûteuses en calcul, l’arrivée prochaine d’ASIC ZK devrait améliorer les performances.
Une autre piste, inspirée du modèle « optimiste », est l’échantillonnage aléatoire avec sanctions élevées. On valide seulement une petite fraction des résultats, mais on impose des pénalités sévères en cas de fraude détectée — créant ainsi une dissuasion économique forte. Cette méthode évite la redondance coûteuse.
D’autres pistes comme les filigranes ou empreintes numériques (ex. Bagel Network) sont aussi prometteuses, similaires aux mécanismes de qualité d’Amazon Alexa pour ses millions d’appareils.
Bénéfice réel #7 : Réduction des coûts via l’OSS (économie des profits d’OpenAI)
Une autre opportunité offerte par Web3 est la démocratisation des coûts. Jusqu’ici, nous avons parlé de réduction du coût GPU via les DePIN. Mais Web3 permet aussi d’éviter les marges des services IA centralisés (comme OpenAI, dont le chiffre d’affaires annuel dépasse 1 milliard de dollars). Ces économies proviennent du fait que les modèles open source ne cherchent pas à être rentables.
Beaucoup de modèles OSS resteront totalement gratuits, offrant ainsi le meilleur rapport coût-efficacité. Mais certains expérimenteront des modèles monétaires. Sur Hugging Face, seuls 4 % des modèles sont entraînés par des entreprises disposant d’un budget. Les 96 % restants viennent de la communauté, avec des coûts réels (calcul, données). Ces modèles devront donc trouver un moyen de se rémunérer.
Parmi les propositions, l’une des plus intéressantes est l’« émission initiale de modèle » (IMO), où le modèle est tokenisé, une part des jetons gardée par l’équipe, et une partie des revenus futurs dirigée vers les détenteurs. Bien sûr, des obstacles juridiques et réglementaires subsistent.
D’autres modèles OSS pourraient opter pour une monétisation par usage. Si cela se généralise, certains modèles OSS risquent de ressembler de plus en plus à leurs homologues Web2. Mais en réalité, le marché se scindera probablement : une partie restera gratuite.
Bénéfice réel #8 : Sources de données décentralisées
L’un des plus grands défis de l’IA est de trouver les bonnes données pour entraîner les modèles. Nous avons vu que l’entraînement décentralisé pose problème. Mais que dire de l’utilisation de réseaux décentralisés pour collecter des données — ensuite utilisées ailleurs, voire dans des infrastructures Web2 traditionnelles ?
C’est précisément ce que fait Grass, une startup qui construit un réseau décentralisé de « scrapers de données ». Ces participants mettent à disposition la puissance inutilisée de leurs machines pour collecter des données destinées à l’entraînement de modèles IA. À grande échelle, grâce à un vaste réseau de nœuds incités, cette source pourrait surpasser les efforts internes de toute entreprise, non seulement en volume, mais aussi en fréquence — garantissant des données plus fraîches et pertinentes. Impossible aussi de bloquer un tel réseau décentralisé, car il ne dépend pas d’une seule adresse IP. Un réseau parallèle nettoie et standardise les données pour les rendre immédiatement exploitables.
Une fois les données collectées, il faut un endroit pour les stocker — idéalement sur chaîne — ainsi que les LLMs générés à partir d’elles.
Notez que le rôle des données dans l’IA Web3 pourrait évoluer. Actuellement, les LLM sont pré-entraînés sur des jeux de données fixes, puis affinés. Mais comme les données sur internet changent en temps réel, ces modèles sont toujours légèrement obsolètes, ce qui affecte la précision des réponses.
L’avenir pourrait être un nouveau paradigme : les données « en temps réel ». L’idée est qu’un LLM, lorsqu’il reçoit une requête, récupère dynamiquement des données fraîchement collectées sur internet, puis injecte ces données dans son prompt. Résultat : une réponse basée sur l’information la plus récente. C’est exactement ce que Grass explore.
Remerciements particuliers à Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng et JW Wang pour leurs retours et contributions à cet article.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News











