เมื่อปลายพฤษภาคม 2566 ได้เห็นข่าวใหญ่น่าตกใจ จากกรณีที่กลุ่มนักวิจัยและผู้พัฒนาด้านเทคโนโลยีเตือนว่า “ปัญญาประดิษฐ์ หรือ Artificial Intelligence อาจทำให้มนุษยชาติสูญพันธุ์” และย้ำให้ทั่วโลกร่วมกันทำอะไรสักอย่างเพื่อยับยั้งวิกฤตการณ์ดังกล่าวโดยเร็ว!! โดยเสนอว่า บริษัทต่าง ๆ และทั่วโลกควรยุติการพัฒนา AI ไว้อย่างน้อยระยะเวลา 6 เดือน
อีกความเห็นหนึ่งที่เผยแพร่ออกมาในช่วงเวลาใกล้ ๆ กัน ซึ่งน่าเชื่อถือและก็น่าห่วงกังวลไม่น้อย คือผู้อำนวยการหน่วยงานความมั่นคงด้านไซเบอร์ในสหรัฐอเมริกา หรือ Cybersecurity and Infrastructure Security Agency ก็ออกมาเตือนเกี่ยวกับการพัฒนา AI ที่รวดเร็วจนเกินไปเหมือนกัน…คำเตือนนี้อาจทำให้เราย้อนนึกถึงภาพยนตร์ Sci-fi หลายเรื่องที่หุ่นยนต์หรือปัญญาประดิษฐ์คิดครองโลกแล้วทำร้ายมนุษย์ที่คิดไม่ทัน AI เหล่านี้ หรือเหล่าผู้พัฒนาเทคโนโลยีกำลังเตือนโลกว่า “Age of Altron” จะเป็นเรื่องจริงได้!?
ก็คงไม่ใช่ขนาดนั้นซะทีเดียว…ขอให้ทุกคนใจเย็นลงก่อน แล้วมาดูกันว่า ประเด็นการพัฒนา AI ที่กำลังเป็นที่ถกเถียงกันในโลกไซเบอร์และโลกแห่งความมั่นคง รวมถึงในวงการผู้พัฒนา AI อย่างบริษัท OpenAI ที่สร้าง ChatGPT ขึ้นมานั้น มีอะไรบ้าง และน่าจะนำไปสู่อะไร
เริ่มแรกที่สาระสำคัญของประเด็นที่ทั่วโลกกำลังถกเถียง คือ “AI กำลังพัฒนาตัวเองอย่างรวดเร็วเกินไป จนเป็นภัยคุกคามจากความมั่นคงปลอดภัยของมนุษย์?” ในมุมมองของหน่วยความมั่นคงทางไซเบอร์ของสหรัฐฯ AI หรือปัญญาประดิษฐ์นั้น กำลังพัฒนาขึ้นไปอยู่ในจุดที่มีพลังอำนาจอย่างมาก จนจะกลายเป็น “อาวุธ” ที่ทรงพลานุภาพในยุคสมัยนี้ เนื่องจากการใช้ประโยชน์ของมันสามารถครอบคลุมและตอบโจทย์ได้ทั้งการวางแผนระดับเล็ก ๆ อย่างการเตรียมการดินเนอร์ ไปจนถึงการวางแผนก่อการร้าย รวมทั้งการโจมตีทางไซเบอร์ในระดับที่ส่งผลกระทบต่อความมั่นคงในภาพรวม ดังนั้น หากบริษัทผู้ผลิตต่าง ๆ ไม่คิดถึงการควบคุมการพัฒนา AI สักหน่อย มันก็อาจมีความเสี่ยงที่ AI จะพัฒนาก้าวไปไกลเกินกว่าจินตนาการ และนำไปสู่การที่ AI เป็นเทคโนโลยีที่อยู่เหนือการควบคุม
ก่อนหน้านี้ หน่วยความมั่นคงทางไซเบอร์ของสหรัฐฯ เคยพยายามพูดคุยและเตือนบริษัทผู้ผลิตและพัฒนา AI เกี่ยวกับประเด็นนี้แล้ว เมื่อ เมษายน 2566 เพื่อร่วมกันกำหนดแนวทางการพัฒนา AI ในอนาคต โดยครั้งนั้นนอกจาก CISA ซึ่งเป็นหน่วยงานด้านความมั่นคงทางไซเบอร์ ก็มีหน่วยงานด้านความมั่นคงภายในประเทศอย่างกระทรวงความมั่นคงแห่งมาตุภูมิสหรัฐฯ (Department of Homeland Security – DHS) เข้าร่วมการพูดคุยด้วย โดยตั้งใจจะทำให้ผู้พัฒนา AI เข้าใจความเป็นไปได้และความเสี่ยงที่ AI จะเป็นภัยคุกคามต่อประชาชนได้
ถ้าถามว่า AI พัฒนาไปรวดเร็วและน่าห่วงกังวลจริงหรือไม่ ขอตอบคำถามแรกก่อนที่ AI พัฒนาไปรวดเร็วจริง ๆ จากข้อมูลที่มีในปัจจุบันอาจสามารถบอกได้ว่า AI สามารถสร้างและอำนวยความสะดวกได้เกือบทุกวงการ อาจเข้าไปแทนที่มนุษย์ และทำให้เกิดความห่วงกังวลเพิ่มขึ้นเรื่อย ๆ อย่างกรณีเมื่อ มีนาคม 2566 เคยมีการศึกษาและเตือนเกี่ยวกับการพัฒนา AI เนื่องจากการเกิดขึ้นของ Chat GPT กลายเป็นการเปลี่ยนโฉมหน้าการใช้งาน AI ให้เข้าถึงง่ายและเป็นรูปธรรมมากขึ้น สิ่งท้าทายสำคัญในการใช้ AI ไม่ใช่แค่เพราะ AI ฉลาดเกินไปหรือจะมาแทนที่แรงงานมนุษย์ แต่เป็นเพราะ AI อาจมีความสามารถเหนือการควบคุมของมนุษย์ AI สามารถเอาไปใช้สร้างมัลแวร์เพื่อโจมตีทางไซเบอร์ได้ และมนุษย์เริ่มเชื่อการตัดสินใจของ AI มากกว่าตัวเอง จนทำให้เกิดปัญหา Fake Information ที่เกิดจาก AI ที่ทำให้เกิดความเข้าใจผิดมากขึ้น ทำให้หลาย ๆ ฝ่ายมองว่าต้องระงับ หรือยุติการพัฒนา AI ไว้ก่อน เพื่อที่จะหาแนวทางควบคุมและรับมือกับความเสี่ยงต่าง ๆ ก่อนที่จะสายเกินไป
ประเด็นที่ 2 นอกเหนือจากการพัฒนา AI ที่รวดเร็ว จริง ๆ แล้วการที่ AI พัฒนาไปอย่างรวดเร็วก็เป็นไปเพื่อผลประโยชน์ทางธุรกิจและการอำนวยความสะดวกให้มนุษย์ทั้งนั้น แต่สิ่งสำคัญที่หลายฝ่ายอาจหลงลืมไประหว่างทาง คือ การกำกับและควบคุม หรือ “RegulationW เพื่อให้การใช้ AI ยังมีความเป็นมนุษย์ปะปนอยู่นั่นเอง
ประเด็นนี้ก็คือสิ่งที่ CISA ออกมาเตือนว่า เฮ้!! พวกเราควรหยุดคิดสักนิดและมาร่วมมือกันควบคุมการพัฒนา AI ดีไหม? ไม่ว่าจะด้วยแนวทางต่างคนต่างทำ หรือจะมาร่วมมือกันเพื่อกำหนดกฎระเบียบที่ชัดเจนและใช้ร่วมกันก็ได้ เพราะการไม่มีกฎระเบียบ หรือแม้กระทั่งบรรทัดฐานร่วมกันในการพัฒนาและใช้ AI อาจนำไปสู่ความเสี่ยงที่ AI จะถูกใช้ประโยชน์จากกลุ่มอาชญากรรมข้ามชาติ กลุ่มก่อการร้าย ผู้ไม่หวังดี หรือประเทศใดประเทศหนึ่งที่มุ่งทำร้ายประเทศอื่น ๆ ก็ได้ อย่างที่ว่ากันว่า AI อาจสร้างความเสียหายได้มากกว่าอาวุธนิวเคลียร์!!
ไม่ได้มีเพียงสหรัฐอเมริกาที่เคลื่อนไหวในประเด็นนี้ หลาย ๆ ประเทศกำลังมุ่งศึกษาความเป็นไปได้ที่จะควบคุมการพัฒนาและการใช้ AI ให้เหมาะสม และล่าสุดก็มีนายกรัฐมนตรีสหราชอาณาจักรที่ออกมาบอกเมื่อต้นมิถุนายน 2566 ว่า สหราชอาณาจักรจะเป็นศูนย์กลาง และเป็นผู้นำโลกด้านการผลักดันให้เกิดระเบียบหรือกฎในการควบคุมการพัฒนา AI เท่ากับว่า ผู้นำอังกฤษเห็นด้วยกับการควบคุม AI เพราะความเสี่ยงด้านความมั่นคงที่เกิดจาก AI กำลังเพิ่มขึ้น และที่สำคัญผู้นำสหราชอาณาจักรต้องการสร้างความมั่นใจว่า การใช้ประโยชน์จาก AI จะเป็นผลดีต่อเศรษฐกิจและสังคม และจะไม่ถูกควบคุมมากเกินไปตามอย่างที่สหภาพยุโรปกำลังดำเนินการ
ดูเหมือนว่าการพัฒนา AI ที่รวดเร็วและถูกนำมาใช้อย่างแพร่กระจาย (decentralize) จะสร้างความห่วงกังวลให้กับสังคมไม่น้อย เราเชื่อว่าการกำหนดกฎระเบียบ บรรทัดฐาน หรือมาตรฐานสากลในการใช้ AI อย่างสร้างสรรค์น่าจะได้รับการขบคิดให้สมดุลกับประโยชน์ของ AI ที่ควรจะเป็นเครื่องมืออำนวยความสะดวกของมนุษย์ส่วนมาก มากกว่าจะถูกควบคุมเอาไว้เพื่อใช้ประโยชน์แค่กลุ่มธุรกิจหรือรัฐบาล อย่างไรก็ตาม การกำหนดระเบียบเกี่ยวกับ AI ควรจะต้องคำนึงถึงความพร้อมและความต้องการของประชาชน ควบคู่กับการปฏิบัติตามหลักการสากล และการเปลี่ยนแปลงเทคโนโลยีในอนาคตที่ก้าวล้ำไปอย่างรวดเร็วไม่แพ้ AI