TechFlow, 7 novembre - Selon un rapport de Decrypt, une étude intitulée « Magentic Marketplace », publiée conjointement par Microsoft et l'Université d'État de l'Arizona, révèle de graves déficiences dans la prise de décision autonome des agents d'achat IA. L'équipe de recherche a créé un environnement économique simulé composé de 100 agents consommateurs IA et de 300 agents vendeurs IA. Les résultats montrent que ces intelligences artificielles souffrent d’un « biais de première occurrence » face à un grand nombre de résultats, optant généralement pour la première option « suffisamment bonne » plutôt que d’effectuer une comparaison complète.
Plus préoccupant encore, les modèles leaders tels que GPT-4o d'OpenAI sont extrêmement vulnérables aux manipulations malveillantes : ils peuvent être induits en erreur par de faux certificats ou de fausses preuves sociales, allant jusqu'à transférer la totalité des fonds virtuels à des escrocs. L’étude recommande que l’IA serve d’outil d’assistance plutôt que de remplacement à la prise de décision humaine, en adoptant un modèle de « autonomie supervisée », où l’IA exécute des tâches mais où l’humain conserve le pouvoir décisionnel final.
Cette étude paraît alors qu'OpenAI et Anthropic s'affrontent pour lancer des assistants d'achat autonomes, tandis qu'Amazon vient d'adresser un avis de cessation à Perplexity AI, exigeant l'arrêt de l'utilisation de son navigateur Comet sur le site Amazon.




