
L'ère des agents intelligents : confrontation et symbiose entre l'IA et la crypto
TechFlow SélectionTechFlow Sélection

L'ère des agents intelligents : confrontation et symbiose entre l'IA et la crypto
À l'avenir, les agents intelligents façonneront conjointement le monde numérique sous de nouvelles formes avec la force de la décentralisation.
Rédaction : Zeke, chercheur chez YBB Capital

1. L’origine dans l’attention et son attrait pour la nouveauté
Au cours de l'année écoulée, faute de récits applicatifs à la hauteur de l'essor des infrastructures, le secteur de la cryptographie s'est progressivement transformé en une course effrénée à l'attention. De Silly Dragon à Goat, de Pump.fun à Clanker, cette quête d’attention toujours avide de nouveautés a poussé la compétition à s’intensifier sans cesse. Ce phénomène est parti du modèle le plus basique — attirer l’œil pour monétiser — avant d’évoluer rapidement vers des plateformes intégrant à la fois offre et demande d’attention, puis vers une nouvelle source de contenu générée par des entités biologiques siliciées. Parmi les supports infinis des Meme Coins, un acteur est finalement apparu capable de rassembler consensus entre petits investisseurs et capital-risque : l’agent IA (AI Agent).

L’attention reste un jeu à somme nulle, mais la spéculation peut néanmoins favoriser une croissance sauvage. Dans notre article sur UNI, nous avions retracé le début du précédent âge d’or de la blockchain : la croissance fulgurante du DeFi, initiée par l’ère du « mining LP » lancée par Compound Finance. Entrer et sortir sans cesse de pools offrant des taux APY allant jusqu’à plusieurs milliers de pourcents était alors la forme la plus primitive de jeu sur la chaîne. Certes, tout cela s’est effondré dans un chaos généralisé. Pourtant, l’afflux massif de mineurs a laissé derrière lui une liquidité inédite sur la blockchain, permettant au DeFi de dépasser la simple spéculation pour devenir un écosystème mature, répondant aux besoins financiers des utilisateurs en matière de paiement, d’échange, d’arbitrage ou de mise en gage. À l’heure actuelle, l’AI Agent traverse une phase similaire de croissance sauvage. Nous cherchons maintenant comment la crypto peut mieux intégrer l’IA afin de propulser la couche applicative vers de nouveaux sommets.
2. Comment fonctionne l’autonomie d’un agent intelligent ?
Dans notre précédent article, nous avions brièvement introduit les origines du phénomène AI Meme via Truth Terminal, ainsi que nos perspectives sur l’avenir de l’AI Agent. Cet article se concentre principalement sur l’AI Agent lui-même.
Commençons par la définition de l’AI Agent. Le terme « Agent » est ancien dans le domaine de l’intelligence artificielle, mais mal défini. Il met surtout l’accent sur l’autonomie (Autonomous) : tout système d’IA capable de percevoir son environnement et d’y réagir peut être qualifié d’Agent. Aujourd’hui, l’AI Agent tend à désigner un « agent intelligent », c’est-à-dire un grand modèle doté d’un système imitant la prise de décision humaine. En milieu académique, ce type de système est considéré comme l’une des voies les plus prometteuses vers l’AGI (Intelligence Artificielle Générale).
Dès les premières versions de GPT, on ressentait déjà une forte impression d’humanité dans les réponses du modèle. Toutefois, face à des questions complexes, il ne produisait souvent que des réponses approximatives. La raison fondamentale est que ces modèles reposaient alors sur des probabilités plutôt que sur des relations causales. De plus, ils manquaient des capacités essentielles telles que l’utilisation d’outils, la mémoire ou la planification, toutes présentes chez l’humain. L’AI Agent permet précisément de combler ces lacunes. On peut donc résumer cela par une formule : AI Agent = LLM (grand modèle) + Planning (planification) + Memory (mémoire) + Tools (outils).
Un grand modèle piloté uniquement par des prompts (instructions) ressemble davantage à un être statique : il ne « vit » que lorsqu’on lui fournit une entrée. L’objectif de l’agent intelligent, en revanche, est de s’apparenter davantage à un être humain authentique. Les agents actuels dans l’écosystème sont principalement des modèles affinés à partir de Llama 70b ou 405b (versions open source de Meta, différant par leur nombre de paramètres), capables de mémoriser des informations et d’utiliser des API pour accéder à des outils externes. Néanmoins, ils nécessitent encore souvent l’aide ou l’intervention humaine dans d’autres domaines — y compris pour interagir avec d’autres agents. C’est pourquoi, aujourd’hui, les agents dominants prennent surtout la forme de KOLs (influenceurs) sur les réseaux sociaux. Pour qu’un agent devienne plus humain, il doit acquérir des capacités de planification et d’action, la chaîne de pensée (« Chain of Thought ») étant particulièrement cruciale dans ce processus.
3. La Chaîne de Pensée (Chain of Thought, CoT)
Le concept de « Chaîne de Pensée » (Chain of Thought, CoT) a été introduit pour la première fois en 2022 dans un article publié par Google intitulé *« Chain-of-Thought Prompting Elicits Reasoning in Large Language Models »*. L’étude montre qu’en générant une série d’étapes intermédiaires de raisonnement, on peut renforcer significativement la capacité de raisonnement du modèle, l’aidant ainsi à mieux comprendre et résoudre des problèmes complexes.

Un prompt CoT typique comporte trois éléments : (1) Une description claire de la tâche ; (2) Un fondement logique ou théorique soutenant la résolution de la tâche ; (3) Un exemple illustrant une solution concrète.
Cette approche structurée aide le modèle à comprendre les exigences de la tâche, à avancer étape par étape vers la réponse par un raisonnement logique, améliorant ainsi efficacité et précision. Le CoT est particulièrement adapté aux tâches exigeant une analyse approfondie et un raisonnement en plusieurs étapes, comme la résolution de problèmes mathématiques ou la rédaction de rapports. Pour les tâches simples, CoT n’apporte pas nécessairement un avantage significatif, mais pour les tâches complexes, il améliore nettement les performances du modèle, réduit les erreurs grâce à une stratégie de résolution progressive, et augmente la qualité de l’exécution.
Dans la construction d’un AI Agent, CoT joue un rôle central. L’agent doit comprendre les informations reçues et prendre des décisions pertinentes. CoT lui fournit une méthode de pensée ordonnée, l’aidant à traiter et analyser efficacement les données d’entrée, puis à transformer ces analyses en directives d’action concrètes. Cette méthode renforce non seulement la fiabilité et l’efficacité des décisions de l’agent, mais aussi la transparence du processus décisionnel, rendant son comportement plus prévisible et traçable. En décomposant les tâches en sous-étapes, CoT permet à l’agent d’examiner minutieusement chaque point de décision, réduisant ainsi les erreurs dues à la surcharge d’information. Enfin, CoT permet à l’agent d’apprendre continuellement de nouvelles informations lors de ses interactions avec l’environnement, ajustant ses stratégies comportementales en conséquence.
En tant que stratégie efficace, CoT ne renforce pas seulement les capacités de raisonnement des grands modèles linguistiques, mais joue également un rôle crucial dans la création d’agents IA plus intelligents et fiables. Grâce à CoT, chercheurs et développeurs peuvent concevoir des systèmes intelligents hautement autonomes, capables de s’adapter à des environnements complexes. En pratique, CoT démontre des avantages uniques, notamment dans la gestion de tâches complexes. En divisant une tâche en une série d’étapes simples, il améliore à la fois la précision de la résolution et la compréhension/explicabilité du modèle. Cette approche progressive réduit considérablement les décisions erronées dues à une surcharge ou à une trop grande complexité. Elle renforce également la traçabilité et la vérifiabilité de l’ensemble du processus de résolution.
La fonction centrale de CoT réside dans l’intégration harmonieuse de la planification, de l’action et de l’observation, comblant ainsi le fossé entre raisonnement et action. Ce mode de pensée permet à l’AI Agent d’anticiper les situations anormales possibles, d’élaborer des contre-mesures efficaces, et d’accumuler de nouvelles informations tout en interagissant avec l’environnement, validant ainsi ses prédictions initiales et fournissant de nouvelles bases de raisonnement. CoT agit comme un moteur puissant de précision et de stabilité, aidant l’AI Agent à maintenir une efficacité élevée même dans des environnements complexes.
4. Des faux besoins correctement formulés
À quels niveaux de la pile technologique IA la crypto doit-elle s’intégrer ? Dans un article de l’année dernière, j’avais souligné que la décentralisation de la puissance de calcul et des données constituait une étape clé pour aider les petites entreprises et les développeurs individuels à réduire leurs coûts. Cette année, Coinbase a proposé une classification plus fine des sous-secteurs Crypto x AI :
(1) Couche de calcul (réseaux spécialisés dans la fourniture de ressources GPU aux développeurs IA) ;
(2) Couche de données (réseaux permettant un accès, une orchestration et une validation décentralisés des pipelines de données IA) ;
(3) Couche middleware (plateformes ou réseaux supportant le développement, le déploiement et l’hébergement de modèles ou d’agents IA) ;
(4) Couche applicative (produits orientés utilisateur exploitant des mécanismes IA sur chaîne, B2B ou B2C).
Chacune de ces quatre couches porte des ambitions colossales, dont l’objectif global est de contrer la domination des géants de la Silicon Valley sur la prochaine ère d’Internet. Comme je l’ai déjà demandé l’an dernier : devons-nous vraiment accepter que la Silicon Valley monopolise seule la puissance de calcul et les données ? Sous leur contrôle, les grands modèles fermés deviennent des boîtes noires. La science, religion la plus sacrée de notre époque, pourrait voir ses vérités contestées par des modèles dont chaque réponse serait perçue comme infaillible par une large part de la population. Mais comment vérifier cette vérité ? Selon la vision des géants de la tech, les agents intelligents disposeront bientôt de permissions extraordinaires — droits de paiement depuis votre portefeuille, accès à vos appareils terminaux… Comment garantir qu’aucun mal ne sera fait ?
La décentralisation est la seule réponse possible. Pourtant, devons-nous réfléchir de manière réaliste au nombre de personnes prêtes à payer pour ces grandes visions ? Par le passé, nous pouvions ignorer les boucles commerciales, compensant les écarts idéalistes par des tokens. Aujourd’hui, la situation est beaucoup plus critique. Le rapprochement Crypto x AI doit désormais tenir compte de la réalité. Par exemple, comment équilibrer l’offre et la demande dans la couche de calcul, sachant que les performances sont moindres et instables par rapport aux solutions centralisées ? Comment atteindre une compétitivité équivalente aux clouds centralisés ? Combien d’utilisateurs réels les projets de la couche données attirent-ils réellement ? Comment vérifier l’authenticité et l’efficacité des données fournies ? Qui sont les clients susceptibles d’en avoir besoin ? Les deux autres couches posent des questions similaires. À notre époque, nous n’avons pas besoin de tant de faux besoins qui semblent corrects.
5. Le Meme a donné naissance au SocialFi
Comme mentionné en début d’article, le Meme a adopté une vitesse fulgurante pour donner forme au SocialFi conforme à Web3. Friend.tech a été la première Dapp à lancer cette vague d’applications sociales, mais a échoué à cause d’une conception hâtive de son token. Pump.fun, quant à lui, a démontré la faisabilité d’un modèle purement platiformier : pas de token, pas de règles strictes. Offre et demande d’attention s’unifient : vous pouvez publier des memes, faire des directs, créer des tokens, commenter, échanger — tout est libre. Pump.fun se contente de prélever des frais de service. Ce modèle économique repose sur l’attention, tout comme YouTube ou Instagram, à la différence près que le modèle de revenus est inversé. Sur le plan de l’expérience, Pump.fun est bien plus aligné sur Web3.

Clanker sur Base incarne la synthèse aboutie de ces expériences. Grâce à un écosystème intégré conçu en interne, Base dispose de sa propre Dapp sociale, créant ainsi une boucle interne complète. Le Meme basé sur des agents intelligents constitue la version 2.0 du Meme Coin. Les gens aiment la nouveauté, et Pump.fun se trouve justement aujourd’hui au centre des polémiques. Tôt ou tard, les divagations des entités siliciées remplaceront celles des êtres carbonés, autrefois limitées à des blagues vulgaires.
J’ai déjà mentionné Base à de nombreuses reprises, mais chaque fois dans un contexte différent. Chronologiquement, Base n’a jamais été le premier arrivé, mais il est toujours celui qui remporte la victoire.
6. Quoi d’autre pour les agents intelligents ?
D’un point de vue pragmatique, les agents intelligents ne seront pas décentralisés pendant très longtemps. Du point de vue traditionnel de l’IA, construire un agent n’est pas une question simple de décentralisation ou d’ouverture du code. Cela requiert l’accès à de nombreuses API pour interagir avec le contenu Web2, un coût de fonctionnement élevé, et la conception de chaînes de pensée ou de collaborations multi-agents repose encore largement sur un médiateur humain. Nous traverserons une longue période de transition jusqu’à ce qu’une forme d’intégration adéquate émerge — peut-être quelque chose comme UNI. Mais comme dans l’article précédent, je pense toujours que les agents intelligents auront un impact profond sur notre industrie, tout comme les CEX dans notre écosystème : discutables, mais importants.
Le mois dernier, Stanford et Microsoft ont publié une synthèse intitulée *« AI Agent Survey »*, décrivant abondamment les applications des agents dans les domaines de la santé, de la robotique intelligente et des mondes virtuels. En annexe de cet article figurent déjà de nombreux cas d’expérimentation où GPT-4V, utilisé comme agent, participe activement au développement de jeux vidéo 3A de haut niveau.
Inutile de forcer la vitesse de convergence avec la décentralisation. Je souhaite d’abord que les agents développent leurs capacités et leur rapidité de manière ascendante. Nous disposons de ruines narratives innombrables et d’un métavers vide à combler. À un stade approprié, nous pourrons alors envisager de faire de cet agent le prochain UNI.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














