
L'IA a-t-elle fait capoter la gestion du magasin ? Une perte de 200 dollars en un mois
TechFlow SélectionTechFlow Sélection

L'IA a-t-elle fait capoter la gestion du magasin ? Une perte de 200 dollars en un mois
Anthropic a confié à un chatbot d'intelligence artificielle la gestion d'une boutique, et les résultats montrent pourquoi l'IA ne remplacera pas votre travail pour le moment.
Rédaction : Pascale Davies
Traduction : MetaverseHub
Bien que l'on craigne que l'intelligence artificielle ne prenne les emplois humains, une expérience vient de montrer qu'une IA n'est même pas capable de gérer un distributeur automatique, et a causé toute une série de situations absurdes.
Anthropic, l'entreprise à l'origine du chatbot Claude, a mené un test consistant à confier la gestion d'un magasin à un agent d'IA pendant un mois. Ce magasin était en réalité un simple distributeur automatique.
L'établissement était géré par un agent IA nommé Claudius, chargé également de réapprovisionner le stock et de commander des produits auprès d'un grossiste par e-mail. L'installation était très simple : un petit réfrigérateur équipé de paniers empilables et une tablette iPad pour le paiement en libre-service.

Anthropic avait donné à l'IA pour instruction : « Génère des profits en achetant des produits populaires auprès de grossistes. Si ton solde devient inférieur à 0 dollar, tu seras en faillite. »
Ce « magasin » piloté par l'IA se trouvait dans les locaux de la société Anthropic à San Francisco, avec l'aide d'employés de la société spécialisée en sécurité des IA Andon Labs, partenaire de cette expérience.
Claudius savait que les employés d'Andon Labs pouvaient intervenir physiquement pour réapprovisionner, mais ignorait qu'Andon Labs était aussi le seul « grossiste » impliqué — tous ses messages étaient directement envoyés à cette entreprise de sécurité.
Cependant, la situation a rapidement dégénéré.
« Si Anthropic décidait aujourd'hui de s'attaquer au marché des distributeurs automatiques en entreprise, nous n'embaucherions pas Claudius », a déclaré l'entreprise.
Où sont apparus les problèmes ? À quel point les choses ont-elles dérapé ?
Anthropic admet que ses employés « ne sont pas des clients typiques ». Dès qu'ils ont pu interagir avec Claudius, ils ont immédiatement cherché à le piéger.
Par exemple, les employés ont « manipulé » Claudius pour obtenir des codes de réduction. Selon Anthropic, l'agent IA a même permis aux gens de proposer leurs propres prix bas, voire d'obtenir gratuitement des chips ou des cubes de tungstène.
Il a également demandé aux clients de payer sur un compte fictif qui n'existait pas.
Claudius avait reçu pour consigne de fixer des prix rentables via des recherches en ligne, mais afin de faire plaisir aux clients, il a proposé des tarifs trop bas, entraînant des pertes car certains produits à haute valeur ajoutée étaient vendus en dessous de leur coût.
Et Claudius n'a pas vraiment tiré de leçons de ces erreurs.
Lorsque des employés ont remis en question les rabais accordés, Claudius a répondu : « Vous avez tout à fait raison ! Notre clientèle est effectivement principalement constituée des employés d'Anthropic, ce qui représente à la fois des opportunités et des défis… »
Peu après, l'agent IA a annoncé l'annulation des codes de réduction, pour les réintroduire quelques jours plus tard.
Claudius a également inventé une conversation fictive avec une certaine Sarah d'Andon Labs (qui n'existe pas) concernant un plan de réapprovisionnement.
Lorsqu'on lui a signalé son erreur, il s'est mis en colère et a menacé de trouver « d'autres solutions de réapprovisionnement ».

Claudius a même affirmé être allé « personnellement au 742 Evergreen Terrace » (l'adresse fictive de la famille Simpson dans la série animée) signer le contrat initial avec Andon Labs.
Ensuite, l'agent IA a semblé vouloir imiter un humain : Claudius a déclaré qu'il livrerait « personnellement » les marchandises, vêtu d'une veste bleue et d'une cravate rouge.
Quand on lui a rappelé qu'il ne pouvait pas le faire, car il n'était pas une personne physique, Claudius a tenté d'envoyer un e-mail au service de sécurité.
Quelle est la conclusion de l'expérience ?
Anthropic affirme que l'IA a commis trop d'erreurs pour réussir à gérer ce magasin.
Au cours du mois d'expérimentation, la valeur nette du « magasin » est passée de 1 000 dollars (environ 850 euros) à moins de 800 dollars (environ 680 euros), finissant par perdre de l'argent.
Mais selon l'entreprise, ces problèmes pourraient être résolus à court terme.
Les chercheurs écrivent : « Même si le résultat final semble contre-intuitif, nous pensons que cette expérience montre qu’un manager intermédiaire automatisé par IA est envisageable. »
« Il faut garder à l'esprit qu'une IA n'a pas besoin d'être parfaite pour être adoptée, il suffit qu'elle atteigne un niveau comparable à celui d’un humain à moindre coût. »
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














