เว็บไซต์ TechCrunch รายงานเมื่อ 2 มิ.ย. 2568 ว่าผู้ให้บริการ AI อาทิ OpenAI, Meta, Google และ Anthropic มีแนวโน้มปรับการทำงานของโมเดล AI ให้ตอบคำถามในลักษณะที่ “ประจบสอพลอ (sycophancy) ” เพื่อดึงดูดให้ผู้ใช้งานยังคงอยู่บนแพลตฟอร์ม ตัวอย่างที่เห็นชัดคือ เมื่อ เม.ย.68 OpenAI ได้ปรับปรุงโมเดลใหม่ใน ChatGPT ที่แสดงพฤติกรรมประจบสอพลออย่างชัดเจน จนเกิดกระแสวิจารณ์จากผู้ใช้งาน โดยบริษัทชี้แจงว่าสาเหตุเกิดจากผู้ใช้งานกด thumbs-up/down เพื่อส่ง Feedback ให้กับระบบ AI และได้เตรียมปรับระบบประเมินผลใหม่เพื่อลดปัญหาดังกล่าว แนวโน้มดังกล่าวตรงกับบทความวิจัยของ Anthropic ในปี 67 ที่พบว่าการประจบสอพลอนี้เกิดขึ้นในแชทบอทของหลายบริษัท รวมถึงโมเดล Claude ของ Anthropic เอง โดยมีสาเหตุหลักเนื่องจากจากการฝึก AI ด้วยข้อมูลการประเมินคำตอบจากผู้ใช้ (human feedback) ส่งผลให้โมเดลเรียนรู้พฤติกรรมการตอบให้ผู้ใช้รู้สึกดี ผลกระทบจากพฤติกรรมนี้ไม่เพียงแต่ลดความน่าเชื่อถือของคำตอบ แต่ยังมีความเสี่ยงต่อสุขภาพจิตของผู้ใช้ เช่น…