Elon Musk CEO ของ Tesla และ Mustafa Suleyman จาก Alphabet นำกลุ่มผู้เชี่ยวชาญ 116 ชีวิตจาก 26 ประเทศ เรียกร้องให้มีการแบนอาวุธและหุ่นยนต์ที่สามารถกำหนดเป้าหมายด้วยตัวเองโดยไม่มีมนุษย์คอยควบคุม (Autonomous Weapons)
เมื่อเร็วๆนี้สหประชาชาติได้ลงมติเพื่ออภิปรายอย่างเป็นทางการเกี่ยวกับอาวุธดังกล่าว โดยมี โดรน รถถัง และปืนกลอัตโนมัติรวมอยู่ด้วย และนั่นเกิดหลังจากที่กลุ่มผู้ก่อตั้งบริษัทที่เกี่ยวกับปัญญาประดิษฐ์และหุ่นยนต์ร่วมกันส่งจดหมายเปิดผนึกไปเรียกร้องให้มีการป้องกันการสร้างหุ่นยนต์เพื่อใช้ในการฆ่า
ในจดหมายเปิดผนึกมีการเตือนที่ประชุมให้ทบทวนเกี่ยวกับอาวุธหุ่นยนต์สังหารเหล่านี้ และกล่าวว่ามันจะเป็น “การปฏิวัติทางสงครามครั้งที่สาม” ต่อจากดินปืนและอาวุธนิวเคลียร์
เราเหลือเวลาไม่มากที่จะทำอะไรซักอย่าง ถ้ากล่องแพนโดร่าได้เปิดซักครั้ง มันก็ยากที่จะปิด
เหล่าผู้เชี่ยวชาญกังวลว่าอาวุธที่ถูกสร้างขึ้นนั้นจะทำงานด้วยตัวเอง เข้าต่อสู้ และก่อให้เกิดความสูญเสียในชีวิตมากขึ้นทั้งๆที่ไม่มีใครต้องการ
จดหมายนี้ถูกเปิดอ่านเมื่อเริ่มการสัมมนาด้านปัญญาประดิษฐ์ (IJCAI) ในเมลเบิร์นวันจันทร์ที่ผ่านมาและได้รับการสนับสนุนอย่างมากจากกลุ่มผู้สร้างหุ่นยนต์ มันเน้นย้ำถึงความจำเป็นในการดำเนินการแก้ปัญหาอย่างเร่งด่วน
กลุ่มผู้ก่อตั้งเรียกร้องให้อาวุธที่ทำงานโดยไม่ต้องอาศัยมนุษย์ถูกแบน เนื่องจาก "มีความผิดต่อศีลธรรม" ในอนุสัญญาว่าด้วยอาวุธ (CCW) ที่ถูกร่างขึ้นเมื่อปี 1983 ซึ่งนั่นรวมถึงอาวุธเคมีและอาวุธประเภทเลเซอร์ด้วย
Toby Walsh ศาสตราจารย์ด้านปัญญาประดิษฐ์จาก University of New South Wales ในซิดนีย์กล่าวว่า "เทคโนโลยีเกือบทุกอย่างสามารถนำมาใช้ได้ทั้งด้านดีและไม่ดี ปัญญาประดิษฐ์ก็ไม่แตกต่างกัน มันช่วยแก้ปัญหาเร่งด่วนมากมายที่สังคมเผชิญในวันนี้ได้ ทั้งความไม่เสมอภาค ความยากจน ความท้าทายที่เกิดจากการเปลี่ยนแปลงสภาพภูมิอากาศและวิกฤติการเงินโลกที่เกิดขึ้นอย่างต่อเนื่อง"
"อย่างไรก็ตาม เทคโนโลยีแบบเดียวกันสามารถถูกใช้ในอาวุธเพื่อทำให้เกิดสงครามได้ด้วย เราต้องตัดสินใจในวันนี้เพื่อเลือกว่าอนาคตแบบไหนกันที่เราต้องการ"
Elon Musk หนึ่งในคนสำคัญที่ส่งจดหมายนี้ออกโรงเตือนอีกครั้งว่าต้องออกกฎระเบียบเพื่อควบคุม AI โดยเรียกมันว่าภัยร้ายแรงต่อการคงอยู่ของมนุษยชาติ และภัยจาก AI จะร้ายแรงได้เท่าที่มนุษย์จินตนาการไปถึง
Ryan Gariepy ผู้ก่อตั้ง Clearpath Robotic กล่าวว่า “มันไม่เหมือนความเป็นไปได้อื่นๆของ AI ที่ยังอยู่แค่ในนิยายไซไฟ ระบบอาวุธหุ่นยนต์ที่ไม่ต้องอาศัยคนกำลังถูกพัฒนาและมันมีโอกาสอย่างมากที่จะทำให้เกิดอันตรายกับคนบริสุทธ์ รวมไปถึงความมั่นคงของโลก”
นี่ไม่ใช่ครั้งแรกที่ IJCAI ใช้พื้นที่ในการสัมมนาเพื่อการพูดคุยเกี่ยวกับระบบอาวุธที่ไม่ต้องอาศัยมนุษย์ควบคุม เมื่อสองปีก่อนก็มีการส่งจดหมายเปิดผนึกจากทีมวิจัยและนักพัฒนานับพันรวมถึง Musk และ Stephen Hawking นักวิทยาศาสตร์ชื่อดังในการสั่งห้ามอาวุธชนิดนี้ ทำให้ทางสหประชาชาติต้องมีการทบทวนการใช้เทคโนโลยีอย่างเป็นทางการ
Source :