![]()

เว็บไซต์ CNBC รายงานเมื่อ 29 ต.ค.68 ว่า Character.AI บริษัทสตาร์ทอัพด้านปัญญาประดิษฐ์ ได้ประกาศมาตรการด้านความปลอดภัยครั้งสำคัญ โดยจะระงับความสามารถในการสนทนาแบบอิสระ (Open-ended Conversations) สำหรับผู้ใช้งานที่มีอายุต่ำกว่า 18 ปีโดยสิ้นเชิง ซึ่งรวมถึงบทสนทนาที่มีเนื้อหาเกี่ยวกับความรักและการบำบัด เพื่อทำให้แอปพลิเคชันมีความเหมาะสมกับวัยและปลอดภัยมากยิ่งขึ้น มาตรการดังกล่าวมีขึ้นหลังจากเกิดเหตุการณ์ที่วัยรุ่นฆ่าตัวตายเนื่องจากสร้างความสัมพันธ์ทางเพศกับแชทบอทบนแอปพลิเคชันเมื่อปี 2567 โดยบริษัทจะเริ่มจำกัดเวลาการใช้งานของผู้เยาว์ไม่เกิน 2 ชั่วโมงต่อวัน และจะยกเลิกการสนทนาประเภทดังกล่าวสำหรับผู้เยาว์ทั้งหมดภายใน 25 พ.ย.68 นอกจากนี้ บริษัทยังได้เปิดตัวฟังก์ชันการยืนยันอายุ (Age Assurance) เพื่อบังคับใช้นโยบายใหม่ ท่ามกลางแรงกดดันด้านกฎระเบียบที่เพิ่มขึ้นต่อบริษัทผู้พัฒนาแชทบอท AI เกี่ยวกับผลกระทบต่อเด็กและเยาวชน







