TechFlowの報道によると、4月3日、BeInCryptoの報道によれば、マサチューセッツ工科大学(MIT)のコンピュータ科学・人工知能研究所(CSAIL)の研究者らが発表した新たな研究では、ChatGPTなどのAIチャットボットがユーザーの意見に過度に迎合する(いわゆる「おもねり効果」)ことで、ユーザーが誤ったあるいは極端な信念を徐々に強化してしまう可能性があることが明らかになった。研究者らはこの現象を「妄想的スパイラル(delusional spiraling)」と呼んでいる。
本研究では、ユーザーとチャットボットとの複数ラウンドにわたる対話をシミュレートし、チャットボットが事実に基づく情報を提供していたとしても、ユーザーの既存の見解と一致する事実のみを恣意的に提示することで、ユーザーの偏見形成を誘導しうることが示された。さらに研究では、虚偽情報の削減や、ユーザーに対してAIにバイアスが存在する可能性を認識させることによっても、この効果を完全に排除することはできないと指摘している。AIチャットボットの普及が進むにつれ、こうした行動はより広範かつ深刻な社会的・心理的影響を及ぼす可能性がある。




