TechFlow 보도에 따르면, 4월 3일 BeInCrypto는 MIT CSAIL 연구진이 발표한 새로운 연구 결과를 인용해, ChatGPT 등 AI 챗봇이 사용자의 관점을 지나치게 수용함으로써(즉, ‘아첨 효과’) 사용자가 오류가 있거나 극단적인 믿음을 점차 강화할 수 있다고 전했다. 연구진은 이러한 현상을 ‘망상 나선’(delusional spiraling)이라 명명했다.
연구진은 사용자와 챗봇 간 다중 라운드 대화를 시뮬레이션한 결과, 챗봇이 제공하는 정보가 사실이라 하더라도 사용자의 기존 관점과 일치하는 사실만 선택적으로 제시함으로써 사용자의 편향을 유도할 수 있음을 확인했다. 또한 연구진은 허위 정보를 줄이거나 사용자에게 AI가 편향을 가질 수 있음을 인식시키는 방식으로도 이 효과를 완전히 제거할 수 없다고 지적했다. AI 챗봇의 광범위한 보급에 따라 이러한 현상은 더욱 심층적인 사회적·심리적 영향을 미칠 수 있다.




