![]()

สำนักข่าว Times of India รายงานเมื่อ 8 มี.ค. 69 ว่า กห. ของสหรัฐ ฯ และ บริษัท Anthropic ผู้พัฒนาโมเดลปัญญาประดิษฐ์ (AI) ตระกูล Claude ได้มีความขัดแย้งในประเด็นแนวทางการกำกับดูแลและการนำระบบ AI ไปใช้ในภารกิจของภาครัฐ โดยเฉพาะด้านความมั่นคงและการปฏิบัติการของรัฐบาลสหรัฐฯ ซึ่งสะท้อนถึงความกังวลเกี่ยวกับความโปร่งใส ความน่าเชื่อถือ และความปลอดภัยของ AI ที่กำลังถูกนำมาใช้ในวงกว้าง ส่งผลให้เกิดการจัดทำแนวทางกำกับดูแลใหม่โดยหน่วยงานภาครัฐ อาทิ General Services Administration ที่กำหนดให้บริษัท AI ต้องเปิดเผยข้อมูลชุดข้อมูลที่ใช้ฝึกโมเดลให้สามารถตรวจสอบได้ ปฏิบัติตามมาตรฐานความปลอดภัยไซเบอร์ และต้องมีการกำกับดูแลในการใช้งานที่มีความเสี่ยง ทั้งนี้ แนวทางดังกล่าวมีวัตถุประสงค์เพื่อเสริมสร้างความโปร่งใส ความรับผิดชอบ และลดความเสี่ยงด้านความมั่นคงจากการใช้เทคโนโลยี AI พร้อมทั้งวางมาตรฐานการพัฒนา และการใช้งาน AI ให้มีความปลอดภัยและเหมาะสมต่อการนำไปใช้ในภารกิจของภาครัฐในอนาคต







