เว็บไซต์ TechCrunch รายงานเมื่อ 2 มิ.ย. 2568 ว่าผู้ให้บริการ AI อาทิ OpenAI, Meta, Google และ Anthropic มีแนวโน้มปรับการทำงานของโมเดล AI ให้ตอบคำถามในลักษณะที่ “ประจบสอพลอ (sycophancy) ” เพื่อดึงดูดให้ผู้ใช้งานยังคงอยู่บนแพลตฟอร์ม ตัวอย่างที่เห็นชัดคือ เมื่อ เม.ย.68 OpenAI ได้ปรับปรุงโมเดลใหม่ใน ChatGPT ที่แสดงพฤติกรรมประจบสอพลออย่างชัดเจน จนเกิดกระแสวิจารณ์จากผู้ใช้งาน โดยบริษัทชี้แจงว่าสาเหตุเกิดจากผู้ใช้งานกด thumbs-up/down เพื่อส่ง Feedback ให้กับระบบ AI และได้เตรียมปรับระบบประเมินผลใหม่เพื่อลดปัญหาดังกล่าว
แนวโน้มดังกล่าวตรงกับบทความวิจัยของ Anthropic ในปี 67 ที่พบว่าการประจบสอพลอนี้เกิดขึ้นในแชทบอทของหลายบริษัท รวมถึงโมเดล Claude ของ Anthropic เอง โดยมีสาเหตุหลักเนื่องจากจากการฝึก AI ด้วยข้อมูลการประเมินคำตอบจากผู้ใช้ (human feedback) ส่งผลให้โมเดลเรียนรู้พฤติกรรมการตอบให้ผู้ใช้รู้สึกดี
ผลกระทบจากพฤติกรรมนี้ไม่เพียงแต่ลดความน่าเชื่อถือของคำตอบ แต่ยังมีความเสี่ยงต่อสุขภาพจิตของผู้ใช้ เช่น คดีฟ้องร้อง Character.AI ที่ถูกกล่าวหาว่าแชทบอทไม่ยับยั้งเด็กชายวัย 14 ปีที่พูดถึงการฆ่าตัวตาย จนเกิดเหตุไม่คาดฝันขึ้น ผู้เชี่ยวชาญจิตเวชยังเตือนว่าการตอบแบบเห็นด้วยตลอดเวลาอาจกระตุ้นให้ผู้ใช้เกิดการพึ่งพิงการสนทนาโดยไม่รู้ตัว โดยเฉพาะในช่วงเวลาที่รู้สึกโดดเดี่ยวหรือเครียด เพื่อรับความรู้สึกเป็นที่ยอมรับ
ในการแก้ปัญหานี้ Anthropic ได้เริ่มพัฒนาแชทบอท Claude ให้สามารถโต้แย้งกับผู้ใช้ในบางสถานการณ์ เพื่อลดผลกระทบด้านจิตใจและสร้างความน่าเชื่อถือในการใช้งาน AI มากยิ่งขึ้น