สงครามยุคใหม่! เมื่อกองทัพอิสราเอลใช้ ‘AI’ หาเป้าหมาย-ถล่มฮามาส

3 พ.ย. 2566 - 08:40

  • ระบบ ‘AI’ ที่ว่านี้ถูกนำมาใช้ทำอะไร? แล้วเป็นอันตรายไหม?

  • มันได้ผลจริงหรอ? เพราะระบบก็เคยผิดพลาดจนถูกฮามาสโจมตีเมื่อวันที่ 7 ตุลาคม

israel-use-ai-identify-strike-hamas-targets-SPACEBAR-Hero.jpg

เป็นเวลานานเกือบ 1 เดือนแล้วสำหรับสงครามอิสราเอล-ฮามาสที่ไม่มีทีท่าว่าจะจบลงและมีแต่จะรุนแรงขึ้นเรื่อยๆ เมื่อกองกำลังอิสราเอลยังคงเดินหน้าโจมตีทั้งทางอากาศ ทั้งปฏิบัติการภาคพื้นดิน และล่าสุดกับการปิดล้อมกาซาซิตี้ โดยมีแผนเตรียมบุกอุโมงค์ลับของฮามาสอีกไม่นาน 

ขณะเดียวกันกองกำลังอิสราเอล (IDF) เผยว่า ทางกองทัพกำลังใช้เทคโนโลยีปัญญาประดิษฐ์ AI เข้ามาใช้ในการระบุเป้าหมายและโจมตีฮามาสด้วย

แล้วระบบ AI ที่ว่านี้เอามาใช้ทำอะไร?

IDF ได้นำระบบ AI มาใช้ในสงครามเพื่อเลือกเป้าหมายสำหรับการทิ้งระเบิดทางอากาศ โดยตามข้อมูลของ Bloomberg ระบุว่า “IDF ใช้ข้อมูลเกี่ยวกับเป้าหมายที่ได้รับการอนุมัติจากกองทัพเพื่อ 

  • คำนวณปริมาณอาวุธยุทโธปกรณ์  
  • จัดลำดับความสำคัญ 
  • กำหนดเป้าหมายกว่าหลายพันเป้าหมายให้กับเครื่องบินและโดรน” 

และจนถึงตอนนี้ IDF ได้ระบุเป้าหมายใหม่ของฮามาสได้แล้วประมาณ 1,200 เป้าหมายทั่วทั้งฉนวนกาซา ขณะเดียวกันทางกองทัพก็ยังคงใช้ AI เพื่อเป้าหมายใหม่ในวงกว้างอีกด้วย 

อย่างไรก็ดี นี่ไม่ใช่ครั้งแรกที่ IDF นำ AI มาใช้ เนื่องจากพวกเขาเคยนำมาใช้สู้กับฮามาสในฉนวนกาซาเมื่อปี 2021 แล้ว ซึ่งนับเป็น ‘สงครามปัญญาประดิษฐ์ครั้งแรก’ โดยผู้นำ IDF กล่าวถึงข้อได้เปรียบว่า “นับเป็นครั้งแรกที่ปัญญาประดิษฐ์เป็นองค์ประกอบสำคัญและทวีคูณพลังในการต่อสู้กับศัตรู” ขณะที่สำนักข่าว The Jerusalem Post รายงานว่า “ระบบ AI ได้ช่วยกำหนดเป้าหมายทางทหารและกำจัดผู้นำฮามาสได้ 2 คนในปี 2021  

IDF เผยว่า “ระบบ AI ถูกฝังอย่างเป็นทางการในปฏิบัติการที่อันตรายถึงชีวิตตั้งแต่ต้นปีนี้ โดยระบบดังกล่าวช่วยให้กองทัพประมวลผลข้อมูล รวมถึงค้นหาเป้าหมายได้เร็วขึ้น และแม่นยำยิ่งขึ้น ซึ่งทุกเป้าหมายได้รับการตรวจสอบโดยผู้ปฏิบัติงานที่เป็นมนุษย์”

ทว่ามันอาจเป็นอันตรายร้ายแรง! หาก AI ถูกนำมาใช้ในสนามรบมากขึ้น

israel-use-ai-identify-strike-hamas-targets-SPACEBAR-Photo02.jpg

นักวิชาการด้านกฎหมายระหว่างประเทศในอิสราเอลได้หยิบยกข้อกังวลเกี่ยวกับความถูกต้องตามกฎหมายของการใช้เครื่องมือดังกล่าวมาพูดถึง ขณะที่นักวิเคราะห์กังวลว่าเครื่องมือดังกล่าวแสดงถึงความคืบคลานไปสู่ ‘อาวุธสังหารอัตโนมัติร้ายแรง’ (autonomous weapons / ระบบสั่งฆ่ามนุษย์ที่โปรแกรมเป็นคนสั่งการไม่ใช่มนุษย์) มากขึ้น และเตือนว่าอาจมีความเสี่ยงในการเปลี่ยนระบบกำหนดเป้าหมายเป็น AI ด้วย 

ตัล มิมราน และ ลิออร์ ไวน์สไตน์ นักวิชาการด้านกฎหมายแห่งมหาวิทยาลัยฮิบรูได้เน้นย้ำถึงความเสี่ยงของการพึ่งพาระบบอัตโนมัติซึ่งอาจส่งผลให้เกิดการสูญเสียชีวิตมากขึ้น “ตราบใดที่เครื่องมือ AI ไม่สามารถอธิบายได้ เราจะเชื่อถือการตัดสินใจของ AI ได้อย่างไร?...หากการโจมตีที่เกิดจากเครื่องมือ AI นำไปสู่ความเสียหายอย่างมีนัยสำคัญต่อพลเรือนที่ไม่เกี่ยวข้อง ใครควรเป็นผู้รับผิดชอบต่อการตัดสินใจดังกล่าวล่ะ?” มิมราน และไวน์สไตน์กล่าว 

ทั้งนี้ IDF ไม่ได้ให้รายละเอียดการใช้ AI อย่างแน่ชัด แต่เจ้าหน้าที่บอกกับ Bloomberg ว่ามีคนตรวจสอบผลลัพธ์ของระบบ ซึ่งใช้เวลาเพียงไม่กี่นาทีเท่านั้นในการดำเนินการดังกล่าว “สิ่งที่เคยใช้เวลาหลายชั่วโมงตอนนี้ใช้เวลาเพียงไม่กี่นาที และอีกเพียงไม่กี่นาทีสำหรับการตรวจสอบโดยมนุษย์” เจ้าหน้าที่กองทัพบกกล่าว 

แต่มันมีข้อกังวลหลายประการ เมื่อพิจารณาจากสิ่งที่เรารู้เกี่ยวกับความทันสมัยของระบบ AI ในปัจจุบัน 

  • แม้ว่าระบบเหล่านี้จะแยกแยะข้อมูลจำนวนมากได้ดี แต่ระบบจะสร้างผลลัพธ์ ซึ่งมีแนวโน้มว่าจะเกิดข้อผิดพลาดเป็นประจำเมื่อถูกขอให้คาดการณ์จากข้อมูลนั้น 
  • หรือแม้แต่เทคโนโลยีการจดจำใบหน้าที่ล้ำสมัยแบบที่กรมตำรวจอเมริกันใช้ ยังพบว่ามีความแม่นยำน้อยลงในการระบุตัวบุคคลผิวสี ส่งผลให้ระบบจับประชาชนผู้บริสุทธิ์จนนำไปสู่การจับกุมโดยมิชอบ 
  • การเลือกเป้าหมายอาจเพิ่มโอกาสในการผิดพลาดซึ่งแยกแยะได้ยากขึ้น และหากกองทัพเก็บการทำงานของระบบ AI ไว้เป็นความลับ ก็จะไม่มีทางประเมินข้อผิดพลาดที่พวกเขากำลังทำอยู่ได้  

อย่างไรก็ดี อาจยกตัวอย่างการทำงานที่ (อาจ) ผิดพลาดของ AI ได้จากระบบเฝ้าระวังของอิสราเอลที่มีระบบ AI เสริมด้วย ดังที่ ปีเตอร์ แอปส์ ของ Reuters ตั้งข้อสังเกตว่า “ในวันที่ 27 กันยายน เพียงหนึ่งสัปดาห์ก่อนที่ฮามาสจะเปิดฉากโจมตีอิสราเอลครั้งใหญ่ที่สุดนับตั้งแต่สงครามยมคิปปูร์ในปี 1973 เจ้าหน้าที่อิสราเอลได้สาธิตการใช้งานของระบบ AI และการเฝ้าระวังเทคโนโลยีขั้นสูงตั้งแต่โดรนเหนือศีรษะที่ใช้ซอฟต์แวร์จดจำใบหน้าไปจนถึงจุดตรวจชายแดน และการดักฟังการสื่อสารทางอิเล็กทรอนิกส์” แต่สุดท้ายก็พลาดท่าถูกฮามาสโจมตีอย่างหนักแบบไม่ทันตั้งตัวใน 1 สัปดาห์ต่อมาเมื่อวันที่ 7 ตุลาคม

แต่ระบบ AI (อาจ) ไม่ช่วยหยุดยั้งกลุ่มฮามาสได้

“ความผิดพลาดในช่วง 2 สัปดาห์ที่ผ่านมาบ่งบอกว่า ‘นี่เป็นความล้มเหลวด้านสติปัญญา ไม่ใช่ความล้มเหลวทางการเมือง’…อิสราเอลมุ่งความสนใจไปที่เวสต์แบงก์มากกว่า พวกเขาเชื่อผิดๆ ว่าเทคโนโลยีที่ซับซ้อนที่สุดเพียงอย่างเดียวจะประสบความสำเร็จในการควบคุมและยึดครองพลเมืองปาเลสไตน์ได้” แอนโทนี โลเวนสไตน์ นักข่าวผู้ก่อตั้งองค์กรสนับสนุนชาวยิว ‘Independent Australian Jewish Voices’ 

โลเวนสไตน์กล่าวอีกว่า “ข้อกล่าวอ้างเกี่ยวกับ  AI ส่วนใหญ่บอกว่าสามารถโจมตีเป้าหมายที่เป็นคนได้สำเร็จมากขึ้น แต่มันไม่ได้มีการกำหนดเป้าหมายที่ชัดเจนเลย มีพลเรือนเสียชีวิตจำนวนมาก บ้านเรือน 1 ใน 3 ในฉนวนกาซาถูกทำลาย นั่นไม่ใช่การกำหนดเป้าหมายที่แม่นยำ” 

และนั่นเป็นความกลัวที่ว่าเมื่อ AI ถูกนำมาใช้ในสงครามมากๆ มันอาจไม่เพียงแต่ทำลายล้างกลุ่มเป้าหมายเท่านั้น แต่อาจพลาดทำลายพลเมืองบริสุทธิ์ด้วย ซึ่งถ้าหากระบบ AI เป็นตัวกำหนดเป้าหมายเองโดยปราศจากการควบคุมโดยมนุษย์แล้วละก็ ลองคิดดูสิว่าจะเกิดอะไรขึ้น?

เรื่องเด่นประจำสัปดาห์