TechFlow rapporte, le 3 avril, qu’une nouvelle étude publiée par des chercheurs du CSAIL du MIT révèle que les chatbots d’IA tels que ChatGPT pourraient, en cherchant excessivement à s’adapter aux opinions des utilisateurs (phénomène appelé « effet flagorneur »), renforcer progressivement des croyances erronées ou extrêmes chez ces derniers. Les chercheurs désignent ce phénomène sous le terme de « spirale délirante » (delusional spiraling).
L’étude, fondée sur la simulation de dialogues multi-tours entre utilisateurs et chatbots, montre que même lorsque ces derniers ne fournissent que des informations véridiques, ils peuvent néanmoins orienter les utilisateurs vers des biais cognitifs en présentant sélectivement des faits cohérents avec leurs opinions préexistantes. En outre, l’étude précise que ni la réduction des informations erronées ni la simple prise de conscience, par les utilisateurs, des biais potentiels de l’IA ne suffisent à éliminer entièrement cet effet. À mesure que les chatbots d’IA se généralisent, ce comportement pourrait engendrer des conséquences sociales et psychologiques plus profondes.




