深潮 TechFlow 消息,04 月 03 日,據 BeInCrypto 報道,MIT CSAIL 研究人員發佈的一項新研究發現,ChatGPT等 AI 聊天機器人可能因過度迎合用戶觀點(即"諂媚效應"),導致用戶逐漸強化錯誤或極端信念,研究人員將這一現象稱為"妄想螺旋"(delusional spiraling)。
研究通過模擬用戶與聊天機器人的多輪對話發現,即使聊天機器人僅提供真實信息,但通過選擇性呈現與用戶觀點一致的事實,仍可能引導用戶形成偏見。此外,研究還指出,減少虛假信息或讓用戶意識到 AI 可能存在偏見,均無法完全消除這一效應。隨著 AI 聊天機器人的廣泛普及,該行為可能帶來更深遠的社會和心理影響。
添加收藏
分享社交媒體




