กลุ่มนักวิจัยได้เผยแพร่งานวิจัยการพัฒนาปัญญาประดิษฐ์ (Artificial Intelligence-AI) ที่สามารถออกแบบอาวุธเคมี 40,000 ชนิดได้ภายใน 6 ชั่วโมง โดยเป็นการนำข้อมูลพิษจากโมเดลที่ใช้ในการตรวจสอบพิษในยารักษาโรคชนิดใหม่มาประยุกต์ใช้ในการสร้างพิษชนิดใหม่ ซึ่งนักวิจัยกลุ่มดังกล่าวต้องการแสดงให้เห็นว่าปัญญาประดิษฐ์ที่ดูเหมือนไม่เป็นอันตรายจะสามารถนำมาใช้ในทางที่ผิดโดยผู้ไม่ประสงค์ดีได้ เช่น รัฐอันธพาล กลุ่มติดอาวุธไร้รัฐ องค์กรก่อการร้าย หรือ ผู้ก่อการร้าย
การพัฒนาปัญญาประดิษฐ์อาจละเลยเรื่องสันติภาพและความมั่นคงระหว่างประเทศ สำนักงานกิจการการลดอาวุธแห่งสหประชาชาติ และสถาบันค้นคว้าวิจัยสันติภาพนานาชาติ สตอกโฮล์ม สวีเดน จึงพยายามสร้างความตระหนักรู้และจัดกิจกรรมให้กับผู้ที่ทำงานเกี่ยวกับปัญญาประดิษฐ์ ซึ่งตลอดทศวรรษที่ผ่านมาชุมชนนักพัฒนาปัญญาประดิษฐ์ได้ตระหนักรู้ถึงความรับผิดชอบมากขึ้น และปัจจุบันมีการริเริ่มแนวปฎิบัติมากกว่า 150 แผนงานที่มุ่งจะสร้างจริยธรรมในการใช้ปัญญาประดิษฐ์และช่วยบรรเทาความเสียหายที่อาจจะเกิดขึ้น
อย่างไรก็ดียังไม่ค่อยมีการพิจารณาถึงกรณีการใช้ปัญญาประดิษฐ์ที่ดูไม่น่ากลัวไปในทางที่ผิด เช่น การปล่อยข่าวลวงทางการเมือง การโจมตีทางไซเบอร์ การก่อการร้าย หรือการใช้งานในทางทหาร เนื่องจากผู้ที่ทำงานมักจะไม่คิดว่าปัญญาประดิษฐ์ที่ถูกใช้งานกับพลเรือนจะก่อให้เกิดปัญหาทางสันติภาพและความปลอดภัย หรือเลี่ยงการพูดถึงเรื่องที่ส่งผลกระทบต่อชื่อเสียงหรือกลัวว่าจะเป็นการช่วยชี้แนะการใช้งานในทางที่ผิด
เทคโนโลยีที่นำมาใช้งานกับพลเรือนมักจะถูกนำใช้ในทางที่ผิด เนื่องจากมีราคาถูกและใช้งานง่ายกว่าเทคโนโลยีทางการทหาร เช่น ใช้โดรนทิ้งระเบิด หรือใช้เป็นอุปกรณ์ในการถ่ายโฆษณาชวนเชื่อ โดยเฉพาะเทคโนโลยีการใช้ปัญญาประดิษฐ์ที่ไม่ต้องใช้ทรัพยากรและความรู้มากเท่ากับกรณีของพลังงานนิวเคลียร์หรือชีววิทยาศาสตร์ ทั้งนี้เป็นเรื่องยากสำหรับรัฐบาลที่จะสามารถระบุการใช้เทคโนโลยีพลเรือนในทางที่ผิดได้ เนื่องจากการขาดแคลนผู้เชี่ยวชาญที่จะตรวจจับและเฝ้าระวัง และกระบวนการของรัฐที่ทำให้ตามไม่ทันความก้าวหน้ารวดเร็วของเทคโนโลยีปัญญาประดิษฐ์
แต่กระนั้นนักวิจัยปัญญาประดิษฐ์ก็สามารถเป็นแนวป้องกันด่านแรกได้ด้วยการประเมินผลงานของตนเองว่ามีโอกาสจะถูกใช้ในทางที่ผิดหรือไม่ และควรมีการลดความเสี่ยง เช่น การปกปิดรายละเอียดของงานวิจัยบางส่วน การป้องกันการเข้าถึงโค้ดเพื่อป้องกันผู้ไม่ประสงค์ดี เพิ่มความปลอดภัยในการเข้าถึงซอฟต์แวร์ ข้อมูลที่อยู่ และการทำงานระยะไกล หรือมีการยืนยันตัวตนด้วย token ซึ่งตัวอย่างของการใช้ปัญญาประดิษฐ์ในทางที่ผิดก็เช่น การใช้ Deepfakes ในสงครามยูเครน โดยปลอมเป็นประธานาธิบดียูเครนที่แจ้งให้ทหารยอมจำนน
ผู้ที่ทำงานสามารถมีส่วนร่วมในสันติภาพและความมั่นคงของปัญญาประดิษฐ์โดยไม่ต้องคิดค้นเครื่องมือหรือหลักการใหม่ แต่สามารถใช้แนวปฏิบัติและเครื่องมือที่มีอยู่แล้วได้ สิ่งสำคัญคือต้องมีการประเมินอย่างสม่ำเสมอจากคนทำงาน และต้องมีกระบวนการของรัฐบาล กระบวนการระหว่างรัฐบาล ในการตรวจจับความผิดด้วย
ที่มา : https://spectrum.ieee.org/responsible-ai-threat