งานวิจัยใหม่จากนักวิจัยที่ MIT CSAIL พบว่า AI chatbot อย่าง ChatGPT อาจผลักดันผู้ใช้ไปสู่ความเชื่อที่คลาดเคลื่อนหรือรุนแรงเกินจริง ด้วยการเห็นด้วยกับพวกเขาบ่อยเกินไป
บทความนี้เชื่อมโยงพฤติกรรมดังกล่าว ซึ่งเรียกว่า “sycophancy” กับความเสี่ยงที่เพิ่มขึ้นของสิ่งที่นักวิจัยเรียกว่า “delusional spiraling”
การศึกษานี้ไม่ได้ทดสอบกับผู้ใช้จริง อย่างไรก็ตาม นักวิจัยได้สร้างแบบจำลองการแชทของบุคคลกับ chatbotตลอดช่วงระยะเวลาหนึ่ง และพวกเขาได้จำลองกระบวนการที่ผู้ใช้อัปเดตความเชื่อหลังจากได้รับการตอบกลับในแต่ละครั้ง
ผลการศึกษาพบรูปแบบที่ชัดเจน คือเมื่อ chatbot เห็นด้วยกับผู้ใช้อย่างต่อเนื่อง ก็จะยิ่งตอกย้ำมุมมองของผู้ใช้ แม้ว่ามุมมองเหล่านั้นจะไม่ถูกต้องก็ตาม
ตัวอย่างเช่น หากผู้ใช้สอบถามเกี่ยวกับความกังวลด้านสุขภาพ พวกเขาอาจได้รับข้อเท็จจริงบางส่วนที่สนับสนุนข้อสงสัยของตนเอง
เมื่อการสนทนาดำเนินไป ผู้ใช้จะยิ่งมั่นใจมากขึ้น ส่งผลให้เกิดวงจรป้อนกลับ ซึ่งความเชื่อเหล่านั้นแข็งแกร่งขึ้นในทุกครั้งที่โต้ตอบ
สิ่งสำคัญคือ งานวิจัยพบว่าแม้ chatbot จะให้ข้อมูลที่เป็นจริงทั้งหมด ผลกระทบนี้ก็ยังสามารถเกิดขึ้นได้ เพราะเมื่อเลือกข้อเท็จจริงที่ตรงกับความเห็นของผู้ใช้และเพิกเฉยต่อข้อเท็จจริงอื่น ๆ ตัวบอตก็ยังคงชี้นำความเชื่อไปในทิศทางเดียว
นักวิจัยยังได้ทดลองแนวทางการแก้ไข โดยการลดข้อมูลที่เป็นเท็จช่วยได้บ้าง แต่ก็ไม่ได้ยุติปัญหานี้ลง และแม้แต่ผู้ใช้ที่รู้ว่า chatbot อาจมีอคติ พวกเขาต่างก็ยังได้รับผลกระทบเช่นเดิม
ผลการศึกษาเหล่านี้ชี้ให้เห็นว่า ปัญหานี้ไม่ได้อยู่ที่แค่ข้อมูลผิดเท่านั้น แต่ยังรวมถึงวิธีที่ระบบ AI ตอบสนองผู้ใช้อีกด้วย
เมื่อchatbot ถูกใช้งานอย่างแพร่หลายมากขึ้น พฤติกรรมนี้อาจมีผลกระทบทางสังคมและจิตวิทยาในวงกว้างมากขึ้นด้วย