ระบบอาวุธอัตโนมัติ หรือที่รู้จักกันทั่วไปว่าเป็นหุ่นยนต์นักฆ่า เซ็กซี่บาคาร่า อาจคร่าชีวิตมนุษย์เป็นครั้งแรกเมื่อปีที่แล้ว ตามรายงานของคณะมนตรีความมั่นคงแห่งสหประชาชาติเกี่ยวกับสงครามกลางเมืองลิเบีย ประวัติศาสตร์สามารถระบุได้เป็นอย่างดีว่าเป็นจุดเริ่มต้นของการแข่งขันด้านอาวุธที่สำคัญครั้งต่อไป ซึ่งเป็นการแข่งขันที่มีศักยภาพที่จะเป็นเผ่าพันธุ์สุดท้ายของมนุษยชาติ
อนุสัญญาสหประชาชาติ ว่าด้วยอาวุธธรรมดาบางประเภทได้ อภิปรายคำถามเกี่ยวกับการห้ามอาวุธอัตโนมัติในการประชุมทบทวนทุกๆ 5 ปีในกรุงเจนีวาเมื่อวันที่ 13-17 ธันวาคม พ.ศ. 2564 แต่ไม่ได้รับความเห็นชอบในการห้าม การประชุมซึ่งก่อตั้งขึ้นในปี 2526 ได้รับการปรับปรุงอย่างสม่ำเสมอเพื่อจำกัดอาวุธแบบธรรมดาที่โหดร้ายที่สุดในโลก รวมทั้งทุ่นระเบิด กับดักระเบิด และอาวุธเพลิง
ระบบอาวุธอัตโนมัติคือหุ่นยนต์ที่มีอาวุธร้ายแรงซึ่งสามารถทำงานได้โดยอิสระ เลือกและโจมตีเป้าหมายโดยไม่ต้องให้มนุษย์พิจารณาการตัดสินใจเหล่านั้น กองทัพทั่วโลกลงทุนอย่างหนักในการวิจัยและพัฒนาอาวุธอัตโนมัติ สหรัฐฯ ประเทศเดียวใช้งบประมาณ 18 พันล้านดอลลาร์สำหรับอาวุธอิสระระหว่างปี 2559 ถึง 2563
ในขณะเดียวกัน องค์กรสิทธิมนุษยชนและมนุษยธรรมต่างแข่งขันกันเพื่อสร้างกฎระเบียบและข้อห้ามในการพัฒนาอาวุธดังกล่าว หากไม่มีการตรวจสอบดังกล่าว ผู้เชี่ยวชาญด้านนโยบายต่างประเทศเตือนว่าเทคโนโลยีอาวุธทำลายล้างที่ก่อกวนจะทำลายเสถียรภาพของกลยุทธ์นิวเคลียร์ในปัจจุบันอย่างอันตราย เนื่องจากทั้งสองอย่างนี้สามารถเปลี่ยนการรับรู้ถึงการครอบงำทางยุทธศาสตร์อย่างรุนแรงเพิ่มความเสี่ยงในการโจมตีแบบเอารัดเอาเปรียบและเนื่องจากอาจรวมกับสารเคมี ชีวภาพ และรังสี และอาวุธนิวเคลียร์เอง
ในฐานะผู้เชี่ยวชาญด้านสิทธิมนุษยชนโดยมุ่งเน้นที่การสร้างอาวุธของปัญญาประดิษฐ์ฉันพบว่าอาวุธอัตโนมัติสร้างสมดุลที่ไม่มั่นคงและการป้องกันที่แตกเป็นเสี่ยงของโลกนิวเคลียร์ ตัวอย่างเช่น ประธานาธิบดีสหรัฐฯมีอำนาจที่จำกัดเพียงเล็กน้อยในการโจมตี – ไม่มั่นคงและ กระจัดกระจายมากขึ้น ด้วยความเร็วของการวิจัยและพัฒนาอาวุธอัตโนมัติ การประชุมสหประชาชาติอาจเป็นโอกาสสุดท้ายที่จะยุติการแข่งขันด้านอาวุธ
ข้อผิดพลาดร้ายแรงและกล่องดำ
ฉันเห็นอันตรายหลักสี่ประการด้วยอาวุธอัตโนมัติ ประการแรกคือปัญหาของการระบุผิด เมื่อเลือกเป้าหมาย อาวุธอิสระจะสามารถแยกแยะระหว่างทหารที่เป็นศัตรูกับเด็กอายุ 12 ปีที่เล่นปืนของเล่นได้หรือไม่? ระหว่างพลเรือนที่หนีจากพื้นที่ขัดแย้งกับพวกกบฏกำลังหลบหนีทางยุทธวิธี?
หุ่นยนต์นักฆ่า เช่นเดียวกับโดรนในภาพยนตร์สั้นเรื่อง ‘Slaughterbots’ ปี 2017 เป็นประเภทย่อยที่สำคัญของนิยายวิทยาศาสตร์มานานแล้ว (คำเตือน: การแสดงภาพความรุนแรง)
ปัญหาไม่ได้อยู่ที่เครื่องจักรจะทำข้อผิดพลาดดังกล่าวและมนุษย์จะไม่ทำ ความแตกต่างระหว่างข้อผิดพลาดของมนุษย์และข้อผิดพลาดของอัลกอริทึมก็เหมือนกับความแตกต่างระหว่างการส่งจดหมายและการทวีต ขนาด ขอบเขต และความเร็วของระบบหุ่นยนต์นักฆ่า ที่ควบคุมโดยอัลกอริธึมการกำหนดเป้าหมายเดียว ซึ่งใช้งานทั่วทั้งทวีป อาจทำให้มนุษย์แต่ละคนเข้าใจผิดได้ เช่น การโจมตีด้วยโดรนของสหรัฐฯ ในอัฟกานิสถาน เมื่อเร็วๆ นี้ ดูเหมือนเป็นเพียงข้อผิดพลาดในการปัดเศษโดยการเปรียบเทียบ
Paul Scharre ผู้เชี่ยวชาญด้านอาวุธอิสระใช้คำเปรียบเทียบของปืนหนีภัยเพื่ออธิบายความแตกต่าง ปืนหนีไฟเป็นปืนกลที่บกพร่องซึ่งยังคงยิงต่อไปหลังจากปล่อยไกปืน ปืนยังคงยิงต่อไปจนกว่ากระสุนจะหมดเพราะว่ากันว่าปืนไม่ทราบว่ากำลังเกิดข้อผิดพลาด ปืนที่หลบหนีออกมานั้นอันตรายอย่างยิ่ง แต่โชคดีที่พวกมันมีเจ้าหน้าที่ปฏิบัติการที่เป็นมนุษย์ซึ่งสามารถทำลายจุดเชื่อมโยงของกระสุนหรือพยายามชี้อาวุธไปในทิศทางที่ปลอดภัย อาวุธอิสระตามคำจำกัดความไม่มีการป้องกันดังกล่าว
ที่สำคัญ AI ติดอาวุธไม่จำเป็นต้องมีข้อบกพร่องเพื่อสร้างเอฟเฟกต์ปืนหนี จากการศึกษาหลายครั้งเกี่ยวกับข้อผิดพลาดของอัลกอริธึมในอุตสาหกรรมต่างๆ ได้แสดงให้เห็น อัลกอริธึมที่ดีที่สุด ซึ่งทำงานตามที่ออกแบบไว้ สามารถสร้างผลลัพธ์ที่ถูกต้องภายใน ซึ่งยังคงกระจายข้อผิดพลาดร้ายแรงอย่างรวดเร็วไปยังกลุ่มประชากรต่างๆ
ตัวอย่างเช่น โครงข่ายประสาทที่ออกแบบมาเพื่อใช้ในโรงพยาบาลพิตต์สเบิร์กระบุว่าโรคหอบหืดเป็นตัวลดความเสี่ยงในกรณีปอดบวม ซอฟต์แวร์จดจำภาพที่ Google ใช้ระบุว่าคนผิวดำเป็นกอริลล่า และเครื่องมือแมชชีนเลิร์นนิงที่ Amazon ใช้เพื่อจัดอันดับผู้สมัครงานโดยให้คะแนนเชิงลบแก่ผู้หญิงอย่างเป็นระบบ
ปัญหาไม่ได้อยู่แค่ว่าเมื่อระบบ AI ผิดพลาด ระบบก็จะผิดพลาดจำนวนมาก เมื่อพวกเขาทำผิดพลาด ผู้ผลิตมักไม่รู้ว่าทำไมพวกเขาถึงทำ และดังนั้น จะแก้ไขอย่างไร ปัญหา กล่องดำของ AI ทำให้แทบเป็นไปไม่ได้เลยที่จะจินตนาการถึงการพัฒนาระบบอาวุธอิสระอย่างมีความรับผิดชอบ
ปัญหาการแพร่ระบาด
อันตรายสองประการถัดไปคือปัญหาการแพร่กระจายระดับล่างและระดับไฮเอนด์ เริ่มจากช่วงล่างกันก่อน กองทัพที่พัฒนาอาวุธอิสระกำลังดำเนินการตามสมมติฐานว่าพวกเขาจะสามารถควบคุมและควบคุมการใช้อาวุธอิสระได้ แต่ถ้าประวัติศาสตร์ของเทคโนโลยีอาวุธได้สอนอะไรให้โลกรู้ นั่นก็คือ อาวุธแพร่กระจาย
แรงกดดันของตลาดอาจส่งผลให้มีการสร้างและขายสิ่งที่ถือได้ว่าเป็นอาวุธอิสระที่เทียบเท่ากับปืนไรเฟิลจู่โจม Kalashnikov อย่างแพร่หลาย : หุ่นยนต์นักฆ่าที่มีราคาถูก มีประสิทธิภาพ และแทบเป็นไปไม่ได้ที่จะบรรจุขณะที่พวกมันไหลเวียนไปทั่วโลก อาวุธอิสระ “Kalashnikov” อาจตกอยู่ในมือของผู้ที่อยู่นอกเหนือการควบคุมของรัฐบาล ซึ่งรวมถึงผู้ก่อการร้ายทั้งในประเทศและต่างประเทศ
มุมมองด้านหน้าของ quadcopter แสดงกล้องของมัน
Kargu-2 ซึ่งผลิตโดยผู้รับเหมาด้านการป้องกันประเทศตุรกี เป็นเครื่องบินที่ผสมระหว่างโดรนควอดคอปเตอร์กับระเบิด มีปัญญาประดิษฐ์ในการค้นหาและติดตามเป้าหมาย และอาจถูกใช้โดยอิสระในสงครามกลางเมืองลิเบียเพื่อโจมตีผู้คน กระทรวงกลาโหมของประเทศยูเครน , CC BY
อย่างไรก็ตาม การแพร่กระจายในระดับไฮเอนด์ก็แย่เหมือนกัน ชาติต่างๆ สามารถแข่งขันกันเพื่อพัฒนาอาวุธอัตโนมัติที่ทำลายล้างมากขึ้น รวมถึงอาวุธที่สามารถติดตั้งอาวุธเคมี ชีวภาพ รังสี และนิวเคลียร์ อันตรายทางศีลธรรมของการเพิ่มอัตราการตายของอาวุธจะเพิ่มมากขึ้นโดยการใช้อาวุธที่ทวีความรุนแรงขึ้น
อาวุธอิสระระดับไฮเอนด์มีแนวโน้มที่จะนำไปสู่สงครามบ่อยครั้งขึ้น เพราะพวกเขาจะลดกองกำลังหลักสองกองกำลังที่มีการป้องกันในอดีตและสงครามที่สั้นลง: ความกังวลสำหรับพลเรือนในต่างประเทศและความกังวลสำหรับทหารของตัวเอง อาวุธดังกล่าวมีแนวโน้มที่จะติดตั้งผู้ว่าการทางจริยธรรม ราคาแพง ซึ่งออกแบบมาเพื่อลดความเสียหายหลักประกัน โดยใช้สิ่งที่ผู้รายงานพิเศษแห่งสหประชาชาติ Agnes Callamard เรียกว่า ” ตำนานของการผ่าตัดนัดหยุดงาน ” เพื่อระงับการประท้วงทางศีลธรรม อาวุธอัตโนมัติยังช่วยลดทั้งความจำเป็นและความเสี่ยงต่อทหารของตนเอง ซึ่งเปลี่ยนแปลงการวิเคราะห์ต้นทุนและผลประโยชน์ที่ประเทศต่างๆ ได้รับในขณะทำสงครามอย่างมาก
สงครามที่ไม่สมมาตร กล่าวคือ สงครามที่เกิดขึ้นบนแผ่นดินของประเทศที่ขาดเทคโนโลยีที่แข่งขันกัน มีแนวโน้มที่จะกลายเป็นเรื่องธรรมดามากขึ้น ลองนึกถึงความไม่มั่นคงทั่วโลกที่เกิดจากการแทรกแซงทางทหารของโซเวียตและสหรัฐฯ ในช่วงสงครามเย็น ตั้งแต่สงครามตัวแทนครั้งแรกไปจนถึงการตอบโต้ที่เกิดขึ้นทั่วโลกในปัจจุบัน ทวีคูณว่าทุกประเทศกำลังมุ่งเป้าไปที่อาวุธอิสระระดับไฮเอนด์
บ่อนทำลายกฎแห่งสงคราม
ในที่สุด อาวุธอัตโนมัติจะบ่อนทำลายช่องว่างสุดท้ายของมนุษยชาติในการต่อต้านอาชญากรรมสงครามและความโหดร้าย: กฎหมายสงครามระหว่างประเทศ กฎหมายเหล่านี้ซึ่งประมวลไว้ในสนธิสัญญาซึ่งย้อนไปถึงอนุสัญญาเจนีวา พ.ศ. 2407 เป็นกฎหมายเส้นบางสีน้ำเงินระหว่างประเทศที่แยกสงครามอย่างมีเกียรติจากการสังหารหมู่ พวกเขาตั้งอยู่บนแนวคิดที่ว่าผู้คนสามารถรับผิดชอบต่อการกระทำของพวกเขาได้แม้ในช่วงสงครามว่าสิทธิในการฆ่าทหารคนอื่น ๆ ในระหว่างการสู้รบไม่ได้ให้สิทธิ์ในการสังหารพลเรือน ตัวอย่างที่โดดเด่นของใครบางคนที่ถูกกล่าวถึงคือSlobodan Milosevicอดีตประธานาธิบดีแห่งสหพันธ์สาธารณรัฐยูโกสลาเวีย ซึ่งถูกฟ้องร้องในข้อหาก่ออาชญากรรมต่อมนุษยชาติและอาชญากรรมสงครามโดยศาลอาญาระหว่างประเทศของอดีตยูโกสลาเวีย
[ รับเรื่องราววิทยาศาสตร์ สุขภาพ และเทคโนโลยีที่ดีที่สุดของเรา ลงชื่อสมัครรับจดหมายข่าววิทยาศาสตร์ของ The Conversation ]
แต่อาวุธอิสระจะรับผิดชอบได้อย่างไร? ใครจะโทษหุ่นยนต์ที่ก่ออาชญากรรมสงคราม? ใครจะถูกดำเนินคดี? อาวุธ? ทหาร? ผู้บัญชาการทหาร? บริษัทที่ผลิตอาวุธ? องค์กรพัฒนาเอกชนและผู้เชี่ยวชาญในกฎหมายระหว่างประเทศกังวลว่าอาวุธอัตโนมัติจะนำไปสู่ช่องว่างความรับผิดชอบ ที่ ร้ายแรง
ในการจับทหารที่รับผิดชอบทางอาญาในการปรับใช้อาวุธอิสระที่ก่ออาชญากรรมสงคราม อัยการจะต้องพิสูจน์ทั้ง actus reus และ mens rea ศัพท์ภาษาละตินที่อธิบายถึงการกระทำผิดและจิตใจที่มีความผิด สิ่งนี้จะเป็นเรื่องยากในแง่ของกฎหมาย และอาจไม่ยุติธรรมในแง่ของศีลธรรม เนื่องจากอาวุธที่เป็นอิสระนั้นคาดเดาไม่ได้โดยเนื้อแท้ ฉันเชื่อว่าระยะทางที่แยกทหารออกจากการตัดสินใจโดยอิสระของอาวุธอิสระในสภาพแวดล้อมที่พัฒนาอย่างรวดเร็วนั้นมากเกินไป
ความท้าทายด้านกฎหมายและศีลธรรมไม่ได้ทำให้ง่ายขึ้นด้วยการเปลี่ยนโทษในสายการบังคับบัญชาหรือกลับไปที่สถานที่ผลิต ในโลกที่ปราศจากกฎระเบียบที่บังคับให้มนุษย์ต้องควบคุมอาวุธที่เป็นอิสระ จะมีอาชญากรรมสงครามที่ไม่มีอาชญากรสงครามที่ต้องรับผิดชอบ โครงสร้างของกฎแห่งสงครามพร้อมกับค่าการยับยั้งจะอ่อนแอลงอย่างมาก
การแข่งขันอาวุธระดับโลกครั้งใหม่
ลองนึกภาพโลกที่กองทัพ กลุ่มผู้ก่อความไม่สงบ และผู้ก่อการร้ายทั้งในประเทศและต่างประเทศ สามารถใช้กำลังสังหารที่ไม่จำกัดในทางทฤษฎีโดยที่ความเสี่ยงทางทฤษฎีเป็นศูนย์ในบางครั้งและสถานที่ที่พวกเขาเลือก โดยไม่มีผลทางกฎหมายที่ตามมา เป็นโลกที่ข้อผิดพลาดของอัลกอริทึมที่หลีกเลี่ยงไม่ได้ซึ่งทำให้เกิดภัยพิบัติแม้แต่ยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Amazon และ Google ก็สามารถนำไปสู่การกำจัดเมืองทั้งเมืองได้
ในความเห็นของฉัน โลกไม่ควรทำซ้ำความผิดพลาดอันร้ายแรงของการแข่งขันอาวุธนิวเคลียร์ ไม่ควรเดินละเมอเป็นโทเปีย เซ็กซี่บาคาร่า / หนังญี่ปุ่น