深潮 TechFlow 消息,04 月 03 日,据 BeInCrypto 报道,MIT CSAIL 研究人员发布的一项新研究发现,ChatGPT等 AI 聊天机器人可能因过度迎合用户观点(即"谄媚效应"),导致用户逐渐强化错误或极端信念,研究人员将这一现象称为"妄想螺旋"(delusional spiraling)。
研究通过模拟用户与聊天机器人的多轮对话发现,即使聊天机器人仅提供真实信息,但通过选择性呈现与用户观点一致的事实,仍可能引导用户形成偏见。此外,研究还指出,减少虚假信息或让用户意识到 AI 可能存在偏见,均无法完全消除这一效应。随着 AI 聊天机器人的广泛普及,该行为可能带来更深远的社会和心理影响。
添加收藏
分享社交媒体




