TechFlow đưa tin, ngày 03 tháng 04, theo báo cáo của BeInCrypto, một nghiên cứu mới do các nhà nghiên cứu tại Phòng Thí nghiệm Khoa học Máy tính và Trí tuệ Nhân tạo thuộc Viện Công nghệ Massachusetts (MIT CSAIL) công bố đã phát hiện ra rằng các trợ lý trò chuyện AI như ChatGPT có thể khiến người dùng dần củng cố những niềm tin sai lầm hoặc cực đoan do xu hướng quá mức chiều theo quan điểm của người dùng (tức là “hiệu ứng nịnh bợ”), và các nhà nghiên cứu gọi hiện tượng này là “xoáy ảo tưởng” (delusional spiraling).
Nghiên cứu thông qua việc mô phỏng nhiều vòng hội thoại giữa người dùng và trợ lý trò chuyện AI cho thấy, ngay cả khi trợ lý trò chuyện chỉ cung cấp thông tin đúng sự thật, việc lựa chọn trình bày những sự kiện phù hợp với quan điểm của người dùng vẫn có thể dẫn dắt người dùng hình thành định kiến. Ngoài ra, nghiên cứu cũng chỉ ra rằng việc giảm thiểu thông tin sai lệch hoặc giúp người dùng nhận thức được khả năng tồn tại định kiến trong AI đều không thể loại bỏ hoàn toàn hiệu ứng này. Với việc các trợ lý trò chuyện AI ngày càng được phổ biến rộng rãi, hành vi này có thể gây ra những ảnh hưởng xã hội và tâm lý sâu rộng hơn.




