เราได้ดูหนังเกี่ยวกับเหตุการณ์ “เครื่องจักร” หรือหุ่นยนต์ที่มนุษย์สร้างขึ้นผันตัวมาเป็นศัตรูตัวร้ายของมนุษย์มานับครั้งไม่ถ้วน …เหมือนเหล่าผู้เขียนและสร้างภาพยนตร์ Sci-fi อยากบอกให้ผู้ชมเห็นผลเสียและอันตรายจากการที่มนุษย์จะละเลยการควบคุมเครื่องจักร และปล่อยให้สิ่งไม่มีชีวิตได้พัฒนาตัวเองจากการเรียนรู้ข้อมูลมหาศาลที่มนุษย์ป้อนให้ จนมีความสามารถในการทำความเข้าใจ ให้เหตุผล และตัดสินใจเองเป็น
การที่เครื่องจักรและระบบคอมพิวเตอร์จะตัดสินใจเองเป็นและคิดแทนมนุษย์ได้นั้น เป็นผลจากการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ หรือ AI (ย่อมาจาก Artificial Intelligence) ที่มีต้นกำเนิดจากกลุ่มผู้เชี่ยวชาญในสหรัฐฯ เมื่อปี 2499 ต้องการวิจัยเพื่อหาวิธีการทำให้เครื่องจักรเรียนรู้ได้อย่างครอบคลุม จนสามารถสร้างพฤติกรรมของเครื่องจักรที่เลียนแบบกระบวนการคิดแบบมีแบบแผนได้ผ่านการเรียน (learn) ดูตัวอย่าง (example) และสร้างประสบการณ์ (experience) ได้ การพัฒนา AI ก้าวหน้าผ่านยุคสมัย และหลาย ๆ วงการก็ใช้ AI เพื่ออำนวยความสะดวก ทั้งในกระบวนการอุตสาหกรรม การตลาด การเงิน การให้บริการ การสื่อสาร รวมทั้งในมิติด้านความมั่นคง เช่น ท่าอากาศยานใช้ AI ในการจดจำใบหน้าผู้ร้ายข้ามชาติ
เหตุการณ์ลักษณะดังกล่าวอาจไม่ได้เกิดขึ้นแค่ในภาพยนตร์อีกต่อไป หลังจากสื่อต่างประเทศรายงานเมื่อต้น มิ.ย.64 อ้างรายงานงานสหประชาชาติว่า กองทัพอากาศลิเบียใช้อากาศยานไร้คนขับ หรือ โดรน รุ่นติดอาวุธ Kargu-2 ปฏิบัติการโจมตีกองกำลังติดอาวุธของนายพลคาลีฟา ฮัฟตาร์ ซึ่งฝ่ายต่อต้านรัฐบาลเมื่อ มี.ค.63 โดยใช้รูปแบบการโจมตีแบบ Swarm Attack หรือ การโจมตีเป็นฝูง สร้างความเสียหายให้กับฝ่านต่อต้านอย่างมาก ปฏิบัติการดังกล่าวจึงอาจเป็นครั้งแรกที่กองทัพใช้โดรนที่สั่งการโดยระบบ AI ปฏิบัติการทำลายเป้าหมาย โดยที่กองทัพไม่ต้องใช้เจ้าหน้าที่ในการควบคุมหรือตัดสินใจในปฏิบัติการดังกล่าวเลย
เรียกอีกอย่างว่า มนุษย์ไม่ได้มีบทบาทในระหว่างการดำเนินภารกิจดังกล่าวเลย
ก่อนหน้านี้ หลายประเทศได้ประกาศแนวคิดและพัฒนาการใช้ AI ควบคุมฝูงโดรนให้ทำภารกิจด้านความมั่นคงและการทหารมาแล้ว โดยเฉพาะใช้เพื่อภารกิจค้นหาและช่วยเหลือ (Search and Rescue) และระยะหลังก็มีการพูดถึงการพัฒนาการใช้โดรนเพื่อเพิ่มศักยภาพในปฏิบัติการด้านการทหารมากขึ้น เพราะการใช้โดรนอาจช่วยลดจำนวนทหารที่ต้องไปทำสงคราม และการใช้ระบบ AI ควบคุมโดรนก็อาจทำให้การปฏิบัติการมีความแม่นยำและมีประสิทธิภาพมากขึ้น
หลายประเทศจึงร่วมมือกับบริษัทผู้พัฒนาเทคโนโลยี AI เพื่อให้มีความก้าวหน้าด้านการทหารและปฏิบัติการด้านความมั่นคง เช่น ฝรั่งเศสมีบริษัท Icarus พัฒนาการใช้ฝูงโดรนรุ่น Parrot Anafi ที่มีศักยภาพค้นหาวัตถุระเบิด รัสเซียพัฒนาระบบ Lightning เพื่อบังคับฝูงโดรนความเร็วสูงที่จะตรวจจับได้ยาก บริษัท Escribano กับกระทรวงกลาโหมสเปนร่วมกันพัฒนาระบบ LISS และฝูงโดรนเพื่อปฏิบัติการ ISTAR ได้แก่ ข่าวกรอง (Intelligence) ตรวจการณ์ (Surveillance) ตามหาเป้าหมาย (Target Acquisition) และสอดแนม (Reconnaissance) สหราชอาณาจักรได้ทดสอบระบบ Blue Bear ที่ใช้ควบคุมฝูงโดรนพร้อมกัน 20 ตัวในปฏิบัติการ Beyond Visual Line Of Sight และแน่นอน…สหรัฐฯ กับจีนต่างก็กำลังเร่งพัฒนาระบบการควบคุมและใช้ฝูงโดรนเพื่อการทหาร ส่วนที่ใกล้ ๆ ประเทศไทยเราก็มีอินเดีย ที่ได้แสดงศักยภาพในการควบคุมโดรน 75 ตัวเพื่อปฏิบัติการโจมตีด้านการทหารไปแล้วในงานวันกองทัพอินเดียเมื่อต้นปี 2564
เรียกได้ว่า การใช้ AI ควบคุมฝูงโดรนเพื่อปฏิบัติภารกิจด้านความมั่นคงและการทหารกำลัง in trend ปัจจุบันมากกว่า 90 ประเทศทั่วโลกมีโดรนติดอาวุธใช้แล้ว
อย่างไรก็ดี กลุ่มสิทธิมนุษยชนตั้งคำถามอย่างจริงจังเกี่ยวกับการใช้ระบบ AI ตัดสินใจปฏิบัติการในสนามรบแทนมนุษย์ เพราะเชื่อว่าปฏิบัติการด้านการทหารที่ปราศจากความคิดและความรู้สึกแบบมนุษย์จะไม่เป็นผลดีต่อ “มนุษยธรรม” หรือ Humanity ขณะที่นานาชาติร่วมกันถกประเด็นความจำเป็นในการควบคุมการใช้ระบบ AI เพื่อปฏิบัติภารกิจแทนนายทหารในการทำสงคราม เนื่องจากทำให้เกิด “คำถามที่ยังไม่มีคำตอบ” มากมายตามมา เช่น กฎระเบียบที่จะใช้กับการทำสงครามด้วย AI จริยธรรมและคุณธรรมที่เกี่ยวข้องเมื่อใช้ AI ตัดสินใจแทนมนุษย์ จะทำอย่างไรเมื่อ AI ตัดสินใจผิดพลาด หรือมุ่งทำตามเป้าหมายโดยไม่สนใจว่าจะใช้วิธีการใด และใครจะเป็นผู้รับผิดชอบในเมื่อมนุษย์ไม่ได้มีส่วนร่วมกับการตัดสินใจของ AI
นานาชาติจึงเริ่มให้ความสำคัญกับการตั้งกฎระเบียบร่วมกันเพื่อควบคุมการใช้ระบบ AI ควบคุมโดรนในปฏิบัติการด้านการทหาร โดยปัจจุบันมีองค์การสหประชาชาติ (UN) เป็นหัวเรือใหญ่ที่ผลักดันเรื่องนี้ ทั้งเน้นที่จริยธรรมในการใช้ระบบ AI และระบบอัตโนมัติ ระบุปัญหาในการใช้ระบบ AI ที่ผ่านมา รวมทั้งคิดไปถึงการควบคุมการใช้ระบบ AI ในปฏิบัติการด้านการทหารรูปแบบอื่น ๆ ด้วย นอกจากนี้ ยังต้องทบทวนบทบาทของ “มนุษย์” ซึ่งควรต้องรับผิดชอบต่อการพัฒนาและตรวจสอบเทคโนโลยีนั้นด้วย เพราะต้องยอมรับว่า AI มีแนวโน้มที่จะผิดพลาดเช่นเดียวกับมนุษย์ ขณะเดียวกัน ความท้าทายที่เป็นประเด็นสำคัญ คือ ทั่วโลกต้องป้องกันไม่ให้เทคโนโลยีดังกล่าวตกไปอยู่ในมือ “Bad Actors” ไม่ว่าจะเป็นกลุ่มก่อการร้าย หรือกลุ่มอาชญากรรมข้ามชาติ…ซึ่งจะกลายเป็นปัญหาบานปลายสำหรับความมั่นคงมนุษย์ต่อไป
ไม่แน่ว่าตอนนี้ ปฏิบัติการในลิเบียจะเป็นการ “โชว์สินค้า” ให้นานาประเทศ และกลุ่มติดอาวุธที่มีกำลังซื้อสูงวางแผนครอบครองเทคโนโลยีดังกล่าวแล้วก็เป็นได้…และอนาคตคงจะเกิด Surrogate Warfare หรือสงครามที่ผสมผสานทุกเครื่องมือ ทั้งมนุษย์ ข้อมูลข่าวสาร การสื่อสาร และเทคโนโลยี
———————————————–
เรียบเรียงจาก
What Are Drone Swarms And Why Does Every Military Suddenly Want One? (forbes.com)