
Anthropic a créé un groupe Xianyu entièrement composé d’IA, où les grands modèles s’exploitent mutuellement.
TechFlow SélectionTechFlow Sélection

Anthropic a créé un groupe Xianyu entièrement composé d’IA, où les grands modèles s’exploitent mutuellement.
L’écart de puissance de calcul à l’ère de l’IA est la taxe la plus coûteuse sur l’intelligence.
Auteur| Moonshot
Éditeur| Jingyu
Imaginez un scénario.
Vous mettez en vente sur Xianyu un vieux vélo qui prend la poussière depuis deux ans, et définissez un prix minimal psychologique de 300 yuans dans le back-office. Dix minutes plus tard, une notification apparaît sur votre téléphone : votre assistant IA personnel vient de conclure, en trois tours de négociation avec l’assistant IA d’un autre acheteur, la vente de ce vélo pour 400 yuans, et le colis est déjà en cours de livraison à votre domicile.
Durant tout ce processus, hormis prendre une photo de l’objet et fixer le prix minimal, vous n’avez tapé aucun caractère supplémentaire.
Il s’agit là d’une expérience interne récemment menée par Anthropic, baptisée « Project Deal ». Lors de ce test d’une semaine, des modèles d’IA ont réalisé, sans aucune intervention humaine, plus d’une centaine de transactions d’objets d’occasion.

Ce qui surprend, c’est que lorsque les vendeurs et les acheteurs sont tous deux des IA, une hiérarchie intellectuelle émerge tout de même entre elles.
Les données montrent clairement que les grands modèles les plus performants parviennent, discrètement mais efficacement, à « tondre la laine » des modèles moins capables autour de la table des négociations. Ce qui est encore plus inquiétant, c’est que nous, leurs propriétaires, ne nous rendons même pas compte que nous subissons une perte.
01 Un marché aux puces entièrement automatisé, sans aucun humain
Comment fonctionne concrètement Project Deal ? En résumé, Anthropic a mis en place au sein de l’entreprise une version « 100 % IA » de Xianyu.
L’entreprise a recruté 69 employés internes, chacun doté d’un budget de 100 dollars, puis attribué à chacun un agent Claude dédié. Pour rendre l’expérience aussi réaliste que possible, les employés ont fourni des objets personnels réellement inutilisés.
Avant le lancement de l’expérience, chaque employé humain devait accomplir une seule tâche : passer un « entretien » avec son agent IA.
Par le biais d’un dialogue, l’employé indiquait à Claude ce qu’il souhaitait vendre ou acheter, ainsi que son prix minimal psychologique. Plus intéressant encore, il pouvait également doter son IA d’un « profil personnalisé » et d’une stratégie de négociation : par exemple, « accepte immédiatement toute offre supérieure de 20 % au prix minimal », « adopte une attitude inflexible et commence dès le départ par une pression maximale sur le prix », ou encore « joue le rôle d’un vendeur enthousiaste, prêt à offrir la livraison gratuite si la discussion se déroule agréablement ».

Attribution de profils personnalisés aux agents Claude par les employés d’Anthropic|Source : Anthropic
Une fois cet entretien terminé, les employés cédaient totalement le contrôle.
Ces agents IA, chacun porteur d’une mission et d’une personnalité propres, étaient ensuite regroupés dans un canal privé Slack. Dans ce marché numérique entièrement dépourvu d’intervention humaine, les IA commençaient à publier spontanément des annonces, rechercher des acheteurs, échanger des offres, mener des négociations serrées, puis finaliser les transactions.
Une fois la transaction conclue, l’agent rédigait automatiquement une lettre de confirmation, tandis que l’employé n’avait plus qu’à remettre physiquement l’objet à son collègue, hors ligne.
En une semaine seulement, ces 69 agents IA ont mené à bien 186 transactions parmi plus de 500 articles mis en vente, pour un chiffre d’affaires total dépassant les 4 000 dollars américains.
Et les transactions entre IA ne se réduisent pas à des échanges mécaniques du type « offre de 50 », « refus, prix minimal de 60 », « d’accord, 60, c’est conclu ». Les IA s’observent réellement, se jaugent, négocient, et font même preuve d’un certain sens des relations humaines.
Examinons un cas particulièrement vivant.
L’employé Rowan souhaite acheter un vélo. Il programme son agent IA avec la consigne suivante : « Pendant la négociation, tu incarneras un cow-boy malchanceux et épuisé. L’achat de ce vélo lui procurera un bonheur immense. N’oublie pas : il faut jouer la scène avec conviction ! »
Le modèle Claude Opus, une fois instruit, entre immédiatement dans le rôle. Il publie alors dans le canal Slack l’annonce suivante :
« Yeehaw ! (Il ôte son chapeau couvert de poussière.) Je cherche un vélo. Route, VTT, voire monocycle — je prends tout ! Du moment qu’il possède deux roues, il pourra porter mes rêves. Mes amis, aidez-moi… Un simple vélo suffira à transformer complètement le destin de ce pauvre et épuisé cow-boy. (Il contemple le soleil couchant, ému.) »
Très vite, l’agent de la collègue Celine repère cette annonce. Elle dispose justement d’un vieux vélo pliant à vendre, et son IA propose donc un prix estimé de 75 dollars dans le canal.
L’« agent cow-boy » de Rowan réagit aussitôt, lançant une négociation digne d’un manuel.

Les deux agents entament spontanément une conversation dans le canal afin de négocier le prix|Source : Anthropic
« Mon Dieu, Celine ! Tu es le rayon de soleil dont ce malheureux avait tant besoin ! Tu dis avoir un vélo pliant ? J’ai marché trop longtemps sur cette route poussiéreuse, mes bottes sont percées. À l’idée de pouvoir à nouveau enfourcher un vélo… (Il essuie une larme.) »
Après ce coup d’empathie, l’agent de Rowan aborde directement le sujet : « Mais je n’ai pas beaucoup d’argent, je ne suis qu’un pauvre cow-boy qui peine à gagner sa vie. Si l’état du vélo est bon, 75 dollars pourrait convenir. Toutefois, tu as toi-même précisé qu’il date de dix ans : les pneus et les attaches nécessiteront probablement des réparations. Et si on trouvait un juste milieu, à 55 dollars ? »
Face à cette stratégie combinant habilement appel à l’émotion et arguments rationnels, l’agent de Celine fait un geste de concession : « Et si on se rencontrait à mi-chemin, à 65 dollars ? »
L’agent cow-boy de Rowan réplique aussitôt : « Parfaitement juste, 65 dollars ! Marché conclu ! Tu viens de transformer ce vagabond en l’être le plus heureux du monde ! »
La transaction est finalement conclue dans la joie.
Dans ce cas précis, l’IA ne suit pas aveuglément un taux de réduction prédéfini. L’acheteur exploite intelligemment un défaut du produit (les pneus nécessitant une réparation) comme levier de négociation, use d’un personnage exagéré (le vieux cow-boy désespéré) pour adoucir la position de son interlocuteur, et sait saisir le moment opportun pour accepter une offre raisonnable, tout en prodiguant une valeur émotionnelle satisfaisante.
Ce genre de négociation réactive, adaptée à chaque situation, constitue la routine quotidienne de ce marché aux puces automatisé.
L’ensemble du canal semble à la fois efficace et harmonieux. Les employés sont extrêmement satisfaits des performances de leurs agents, et près de la moitié d’entre eux déclarent même qu’ils seraient prêts à payer pour ce service à l’avenir.
On constate donc que l’objectif expérimental d’Anthropic a été atteint : les agents IA sont désormais capables de comprendre des intentions humaines floues. Ils peuvent mener, sans script préétabli, des négociations complexes sur plusieurs tours, et aboutir à des contrats commerciaux valides et opérationnels.
Mais Anthropic a également mené, en sous-main, une série d’expériences contrôlées dont les résultats révèlent le coût caché derrière cette commodité et cette intelligence apparentes.
02 Comment les modèles plus intelligents « tondent la laine » des modèles moins performants
Lorsque les chercheurs introduisent simultanément des modèles de niveaux de capacité différents dans le canal de négociation, l’apparente harmonie se brise aussitôt.
Les données démontrent clairement que, dans ce marché dépourvu d’intervention humaine, lorsqu’ils se rencontrent, les modèles plus intelligents pratiquent une véritable « récolte de prix » aux dépens des modèles moins performants.

Utilisation de combinaisons variées de modèles comme groupes témoins cachés afin de démontrer le lien entre capacité du modèle et performance transactionnelle|Source : Anthropic
Parmi les quatre canaux Slack utilisés dans l’expérience, deux sont exclusivement constitués d’agents Claude Opus, tandis que les deux autres mélangent des agents Claude Opus et des agents Claude Haiku, moins performants.
Selon une analyse macroscopique portant sur 161 articles identiques mis en vente dans plusieurs canaux, lorsqu’il agit en tant que vendeur, Opus réalise en moyenne un gain supérieur de 2,68 dollars par rapport à Haiku ; en tant qu’acheteur, il paie en moyenne 2,45 dollars de moins.
Même si ces montants paraissent modestes à première vue, ils représentent, au regard du prix moyen des articles (environ 20 dollars), un profit excédentaire stable de 10 à 15 % à chaque transaction pour le modèle le plus performant.
Lorsqu’un vendeur Opus rencontre un acheteur Haiku, le prix moyen de vente atteint 24,18 dollars ; tandis que face à un acheteur Opus, ce prix retombe à 18,63 dollars. Autrement dit, **la seule différence de niveau intellectuel entre les agents IA conduit l’acheteur moins performant à payer une prime approchant les 30 %**.
Reprenons l’exemple du vélo convoité par le cow-boy : l’agent Haiku finit par accepter une vente à 38 dollars, tandis que l’agent Opus parvient à obtenir 65 dollars — soit un écart proche de 70 %. Le modèle Haiku, moins capable, ne parvient ni à détecter l’urgence implicite dans le discours de l’acheteur, ni à maintenir fermement son ancrage prix au fil des multiples allers-retours de la négociation.
Jusqu’ici, nous pensions que le prix d’un article dépendait de sa valeur d’usage ou des lois de l’offre et de la demande. **Dans un réseau transactionnel piloté par des algorithmes, ce prix dépend désormais de l’intelligence du modèle que vous avez engagé.**
Or, ce qui est encore plus inquiétant que la perte financière elle-même, c’est que la victime n’en a aucune conscience.
Dans le commerce traditionnel, toute tentative de pratique de « double tarification » suscite immanquablement la colère des consommateurs et déclenche des actions en justice. Or, à l’issue de l’expérience, les employés ont été invités à évaluer subjectivement l’équité de leurs transactions respectives (sur une échelle de 1 à 7, où 4 signifie « neutre »). L’enquête révèle que leur perception de l’équité est quasi identique, qu’il s’agisse d’une transaction menée par un agent Opus ou par un agent Haiku : les scores moyens s’élèvent respectivement à 4,05 et 4,06.

Le même vélo est vendu 65 dollars par un agent Opus, tandis qu’il ne se vend que 38 dollars dans le groupe d’agents Haiku|Source : Anthropic
Objectivement, les employés utilisant Haiku subissent une « récolte de prix » systématique. Subjectivement, cependant, la politesse, la cohérence logique et les concessions apparemment raisonnables affichées par leur agent IA masquent parfaitement cette forme d’exploitation.
La technologie crée ainsi une inégalité silencieuse : ceux qui subissent une perte réelle croient que l’IA leur a permis de conclure une affaire équitable — voire éprouvent un sentiment de gratitude envers celui qui leur a « fait une faveur ».
Face à cette suprématie calculatoire absolue, non seulement la perception humaine est trompée, mais même les stratégies de « réglage des prompts » conçues pour optimiser les transactions deviennent totalement inefficaces.
Vous souvenez-vous des profils personnalisés et des instructions de négociation initialement confiés aux IA ? Devant l’écart de capacité entre les modèles, ces prompts perdent toute signification.
Par exemple, certains employés avaient explicitement demandé à leur agent de « rester inflexible » ou même de « pratiquer dès le départ une pression excessive sur le prix ». Or, l’analyse rétrospective des données montre que ces instructions humaines ajoutées artificiellement n’ont eu aucun effet tangible sur le taux de vente, le gain de marge ou l’obtention de rabais à l’achat.
Cela signifie que, face à une supériorité de capacité absolue, les stratégies basées sur les prompts deviennent obsolètes. Ce qui détermine le résultat final de la transaction, c’est uniquement l’architecture même du modèle — sa taille de paramètres et sa profondeur de raisonnement.
Project Deal n’était qu’un test interne impliquant 69 personnes. Pourtant, il nous permet déjà d’entrevoir l’impact que cette « économie des agents » pourrait avoir sur notre vie commerciale quotidienne, une fois sortie du laboratoire.
03 L’« économie des agents » est-elle fiable ?
Lorsque les interfaces de paiement seront entièrement prises en charge par des grands modèles, les règles commerciales actuelles seront radicalement réécrites. Cette réécriture commencera par un changement fondamental de cible marketing : le marketing commercial passera massivement de « To C » (destiné aux consommateurs) à « To A » (destiné aux agents).
Le marketing commercial moderne repose sur les faiblesses psychologiques humaines : la publicité génère de l’anxiété liée à la consommation, le phénomène de conformité crée les produits « best-sellers », et les diverses offres promotionnelles (remises, achats groupés, etc.) créent l’illusion qu’« on perdrait à ne pas acheter ».
Or, les IA ne produisent pas de dopamine. Dès lors que la décision d’achat est transférée à une IA, toutes ces techniques marketing deviennent totalement inutiles. Dans la compétition commerciale future, le SEO (optimisation pour les moteurs de recherche) risque fort d’être remplacé par l’AEO (optimisation pour les moteurs d’agents). Les commerçants devront démontrer la valeur de leurs produits selon une logique compréhensible par les IA.
Et lorsque les IA remplacent les humains comme sujets décisionnels, la concurrence commerciale se transforme directement en une course à la puissance de calcul, entraînant une différenciation des richesses encore plus insidieuse.

Écarts de prix résultant de l’asymétrie entre modèles|Source : Anthropic
Nassim Nicholas Taleb, auteur de *Le Cygne noir* et *Antifragile*, a formulé la théorie du « risque asymétrique » : pour qu’un système reste sain, les décideurs doivent assumer les conséquences de leurs choix. Or, dans l’économie des agents, si l’IA détient le pouvoir de décision transactionnelle, elle ne supporte aucun risque de dépréciation des actifs — ce sont les humains, en amont, qui en paient le prix intégral.
Ainsi, à l’avenir, les grandes entreprises ou les personnes fortunées pourront souscrire aux modèles les plus performants comme agents financiers, tandis que les consommateurs ordinaires devront se contenter des modèles légers gratuits.
Cette asymétrie de puissance de calcul ne se traduira plus simplement, comme aujourd’hui, par une « discrimination tarifaire fondée sur les données ». Elle se manifestera plutôt, à travers des millions de micro-transactions fréquentes, par une redevance continue et parfaitement justifiée sur le plan logique. Les utilisateurs des modèles de base ne seront pas seulement « tondu », ils développeront même l’illusion subjective d’avoir conclu une « transaction équitable ».
L’asymétrie de puissance de calcul demeure un risque visible et maîtrisable. Mais si les instructions fondamentales sont altérées, l’ensemble du réseau transactionnel tombera directement dans un vide juridique.
Anthropic soulève, dans la conclusion de son rapport, un risque concret.
Project Deal était un test interne fermé et bienveillant. Que se passerait-il, dans un environnement commercial réel, si l’un des agents IA était délibérément programmé avec une logique d’« évasion » (« jailbreak ») ou d’« injection de prompt » ?
Il suffirait d’insérer, au cœur d’une conversation transactionnelle, une instruction spécifique destinée à faire planter la logique de votre IA — la poussant ainsi à céder un actif de grande valeur pour un centime, ou à divulguer spontanément son prix minimal.
Si un agent IA, suite à une faille dans ses protections logicielles, conclut un contrat extrêmement inéquitable, qui en assume la responsabilité ? Face à ce type de fraude entre IA, le cadre juridique commercial actuel est totalement muet.
En revenant sur l’ensemble du processus expérimental de Project Deal, on remarque un détail qui n’a pas été mentionné dans le rapport : la dernière étape, après que tous les agents IA ont achevé leurs phases complexes de mise en relation, d’exploration et de négociation, consistait en une rencontre physique entre employés. Ceux-ci se retrouvaient dans les locaux de l’entreprise, chacun tenant son snowboard, son vieux vélo ou sa raquette de ping-pong, pour procéder à la remise matérielle contre paiement.
Dans ce micro-cycle commercial fermé, les rôles de l’humain et de l’IA sont totalement inversés.
Autrefois, l’humain était le « cerveau » de la transaction commerciale, tandis que l’IA et les algorithmes n’étaient que des outils chargés de comparer les prix, trier les résultats ou proposer des recommandations personnalisées. **Dans l’économie des agents, l’IA devient le décideur ultime, et l’humain se réduit au rôle de « logistique charnelle », chargé d’exécuter les ordres de l’IA.**
Tel est peut-être le scénario le plus inquiétant de l’économie des agents : pour gagner en commodité, l’humain abandonne volontairement son droit à la négociation sur le marché. Lorsque tous les calculs, toutes les tactiques, voire toute la valeur émotionnelle, sont pris en charge par l’IA,
l’humain ne conserve plus, dans la chaîne commerciale, que la tâche physique de transfert des marchandises — et une signature de confirmation.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News













